Una teodicea per universi artificiali



Secondo l’ipotesi della simulazione del filosofo Nick Bostrom potremmo vivere in un universo simulato. Ma in questo caso i nostri creatori sarebbero buoni o cattivi?


In copertina e nel testo: The Biodiversity Wall, Museum für Naturkunde, Berlin

di Stefano Gualeni

Adattamento e traduzione di Gabriella Longobardi; la versione originale di questo articolo è stata pubblicata nella sua forma estesa sul International Journal of Technoethics (IJT), 12(1), 21-31, con il titolo di: “A Theodicy for Artificial Universes: Moral Considerations on Simulation Hypotheses”.

Immaginiamo un contenitore sul tavolo di un laboratorio futuristico. In questo contenitore, c’è un cervello che galleggia in un liquido. Il laboratorio è gestito da scienziati che utilizzano tecnologie informatiche avanzatissime per stimolare il cervello con input e sensazioni indistinguibili da quelli che si potrebbero percepire attraverso un corpo; identici, quindi, a quelli a cui siamo sottoposti nella nostra vita quotidiana. Gli scienziati sono anche in grado di trasferire gli output del cervello al computer, dando al cervello l’impressione di potere interagire con l’ambiente che percepisce. Possiamo dire che il cervello in questione abiti una totalità interconnessa, coerente e persistente: un mondo. In questo scenario ipotetico, il cervello che galleggia nel contenitore è connesso con quella che viene comunemente indicata come ‘simulazione’: un modello artificiale della realtà generato e gestito da un computer che imita i comportamenti di un sistema fisico.

A prescindere dal riferimento alle tecnologie digitali, scenari ipotetici simili sono piuttosto comuni nella storia del pensiero occidentale. Già il dialogo socratico e i testi degli Scettici presentano domande, allegorie e idee analoghe, nel tentativo di comprendere cosa sia la realtà e se questa sia colta correttamente dalle nostre esperienze e sensazioni. Chi legge potrebbe avere familiarità con idee di questo tipo, come ‘l’ipotesi del cervello in una vasca’ o quella del ‘genio maligno’ elaborata da René Descartes nelle Meditazioni. Idee simili sono emerse anche in contesti culturali non occidentali, come nel taoismo cinese o nella letteratura vedica, dove questi dubbi radicali sull’esistenza e la natura del mondo sono utilizzati per stimolare il sospetto nei confronti di emozioni e sensazioni date per scontate. Questo tipo di speculazioni possono essere considerate, per citare David Chalmers, delle ‘fiabe filosofiche’ che ci spingono a chiederci cosa intendiamo per ‘realtà’ e che cosa possa considerarsi un’esperienza reale. 

Di recente, scenari speculativi simili a questi hanno ricevuto una considerevole attenzione sia da parte della filosofia che dalla cultura popolare. Mi riferisco a un gruppo di situazioni ipotetiche che sono comunemente conosciute come ‘ipotesi della simulazione digitale’. Diversamente dal cervello che galleggia nel laboratorio futuristico, l’ipotesi della simulazione digitale non parte dal presupposto che il cervello di qualcuno (o l’interezza del suo corpo, come ad esempio in Matrix) esista da qualche parte. Non specula sul fatto che il nostro apparato cognitivo e percettivo sia sedotto e ingannato dalle capacità simulative di un computer (o da quelle magiche di un demone maligno). L’ipotesi della simulazione digitale propone uno scenario ancora più radicale, in cui noi siamo esseri artificiali nativi della simulazione: in altre parole, creati ed esistenti solo all’interno di essa. Più semplicemente, questa ipotesi sostiene che nessuna parte di noi esista o sia mai realmente esistita (eccetto, se vogliamo, le linee di codice della simulazione che corrispondono alle proprietà del nostro essere e dei nostri stati mentali). 

Come l’ipotesi del cervello in una vasca, le varie versioni dell’ipotesi della simulazione digitale servono a suscitare dubbi riguardo alla genuinità della nostra esperienza. In filosofia sono  impiegate per lo più per vagliare la possibilità che quello in cui viviamo sia un universo simulato e per capire se potremmo accorgercene o meno. Quest’uso filosofico però ha  da parte altri aspetti e potenziali applicazioni dell’ipotesi della simulazione digitale: ad esempio le riflessioni che riguardano i requisiti tecnologici e computazionali necessari per eseguire la simulazione, i tipi di valori e aspirazioni che possono aver formato e guidato i creatori della simulazione, o le  responsabilità etiche che i suoi sviluppatori hanno nei confronti degli esseri artificiali che la abitano.

L’ipotesi sulla moralità postumana

In Are you Living in a Computer Simulation?  Bostrom immagina una civiltà che ha raggiunto la capacità tecnica di “convertire altri pianeti e risorse astronomiche in computer incredibilmente potenti”, e ipotizza che tale civiltà abbia dimostrato un interesse nello sviluppo di una sorta di “simulatore del mondo dei nostri antenati”. Se queste situazioni si dovessero verificare, sostiene Bostrom, sarebbe statisticamente certo che stiamo vivendo in una di queste simulazioni:

Molte opere di fantascienza e alcune previsioni di persone che si occupano seriamente di tecnologia e futurologia sembrano supportare l’idea che enormi quantità di potenza di calcolo saranno disponibili in futuro. Supponiamo per un momento che queste previsioni siano corrette; una cosa che le generazioni successive potrebbero fare con i loro computer superpotenti è eseguire simulazioni dettagliate dei loro antenati o di persone come i loro antenati. Dato che questi loro computer sarebbero tanto potenti, potrebbero venire eseguite moltissime simulazioni di questo tipo. Supponiamo che queste persone simulate siano coscienti (come lo sarebbero se le simulazioni fossero sufficientemente dettagliate e se una certa posizione ampiamente accettata nella filosofia della mente fosse corretta). Allora si potrebbe pensare ad una situazione in cui la stragrande maggioranza delle menti come la nostra non appartiene alla razza umana originale, ma sia invece parte di quelle persone simulate dai discendenti tecnologicamente avanzati della razza originale. (Nick Bostrom, Are you living in a computer simulation? 2003)

Come fattore limitante alla proliferazione di queste simulazioni da parte di una futura civiltà, Bostrom chiama in causa certe interdizioni di carattere etico. Il filosofo svedese immagina, infatti, che le civiltà avanzate abbiano anche sviluppato una sensibilità che potrebbe porre limiti alla produzione di simulazioni digitali per via della sofferenza che queste inevitabilmente impongono agli individui che la abitano. Quello di Bostrom è però solo un commento, un’intuizione che non viene sviluppata in questo o in altri suoi scritti sull’ipotesi della simulazione digitale. In questo articolo propongo un’ipotesi morale che va ad ampliare la teoria della simulazione in maniera più sistematica ed esplicita, e la chiamerò ‘l’ipotesi sulla moralità postumana’. 

Ipotizziamo cioè che una civiltà tecnologicamente avanzata sia altrettanto avanzata dal punto di vista morale. Estrapolando dalle tendenze attuali (come quelle discusse negli scritti di Erica L. Neely, di Daniel Gunkel e di Mark Coekelbergh) è plausibile aspettarsi che una civiltà siffatta cerchi limitare i danni e la potenziale sofferenza per arrivare a una comunità morale vasta e inclusiva. Per capirci, ipotizziamo che una civiltà avanzata – ovvero familiare con le tecnologie simulative e con la possibilità di riflettere su di esse, integrarle nel proprio sistema morale e legiferare sul loro utilizzo – consideri un dovere morale rispettare e preservare l’autonomia e l’integrità di esseri capaci di esprimere interessi autonomi, a prescindere dalla loro costituzione, fisica o digitale. Sembra ragionevole, quindi, immaginare una civiltà tecnologicamente matura che riconosca gli esseri artificiali come eticamente rilevanti. 

Si potrebbe intendere l’ipotesi sulla moralità postumana come una versione secolarizzata della ‘teologia dell’essere perfetto’, in cui le qualità ascrivibili a Dio sono presupposte nel postulare Dio come un essere perfetto e di conseguenza perfettamente morale. Proseguendo nell’analogia, i tratti che definiscono una civiltà avanzata non sono da trovare solo nella sua maturità tecnologica e organizzativa, ma anche nel suo progresso etico. 

Se però viviamo in una simulazione digitale e se i creatori della simulazione sono benevoli nei nostri confronti, come spiegare l’esistenza della sofferenza e del male nel mondo simulato in cui viviamo? Questa domanda fa eco al problema classico della teodicea.

In che tipo di simulazione viviamo?

Il termine ‘teodicea’ è stato coniato nel 1710 da Gottfried Wilhelm Leibniz e significa, etimologicamente, ‘giustizia divina’. Nominalmente, invece, con ‘teodicea’ si indica un argomento teologico destinato a provare la benevolenza di Dio. In particolare, quest’ultima interpretazione della teodicea difende la possibilità che Dio possegga attributi divini come l’onniscienza, l’onnipotenza e la totale bontà, nonostante la presenza del male e della sofferenza nel mondo.

Come anticipato, in questo breve articolo metterò in primo piano alcuni degli aspetti morali della simulazione digitale con l’obiettivo di rispondere alle domande che riguardano le potenziali aspirazioni dei suoi creatori. Nel trattare di intelligenze che sono capaci di generare artificialmente e far funzionare interi universi è evidente che l’eredità concettuale della teodicea classica può rivelarsi fruttuosa, e non deve perciò essere rigettata a prescindere come pretestuosa o datata. 

Proverò dunque a rispondere alle domande di cui sopra sulla base dell’ipotesi sulla moralità postumana. È importante precisare che questa mia analisi non considera i casi in cui la civiltà avanzata responsabile dello sviluppo e del funzionamento della nostra simulazione digitale sia crudele o folle. In linea con la teodicea classica, non considero dunque l’idea che i nostri creatori siano noncuranti o sadisticamente divertiti dalla sofferenza collettiva degli abitanti della loro simulazione. Sarebbe, ritengo, un percorso sterile, perché nel caso di creatori sadici o folli, tutto sarebbe possibile – la follia giustifica tutto – e la riflessione sul nostro dolore non avrebbe più senso né sbocchi .Anzitutto, le responsabilità etiche nei confronti di esseri simulati (moralmente rilevanti) dipendono in maniera cruciale dalle capacità dei nostri creatori di predire e correggere il corso degli eventi simulati ed eventualmente di fermarli. Nei prossimi paragrafi offrirò speculazioni filosofiche su che tipo di simulazione potremmo abitare, combinando l’ipotesi della simulazione digitale con l’ipotesi della moralità postumana. 

Primo caso: un universo simulato su cui i creatori NON HANNO totale controllo

Gli esseri umani sono allo stesso tempo i produttori e il prodotto di contesti socio-tecnologici. Questa relazione co-costitutiva implica che nessuna civiltà possa essere semplicemente intesa come qualcosa che fa un utilizzo puramente strumentale di tecnologie, istituzioni e tradizioni. Questa sezione del mio articolo è basata sulla supposizione che una civiltà matura dal punto di vista tecnologico non possa esercitare un controllo completo sul funzionamento, le possibilità e gli esiti degli universi simulati da essa creati. Un esempio molto calzante di questa ambiguità nella nostra relazione con la tecnologia si può osservare nell’ambito del machine learning e dell’intelligenza artificiale. Queste tecnologie sono ispirate al funzionamento e alle caratteristiche dei cervelli biologici, e come questi siano inscrutabili: al momento, infatti, non siamo in grado di identificare dove le informazioni siano conservate, quando e come vengano utilizzate e quale possa essere il risultato dei processi del pensiero artificiale. Prendendo spunto dal rapporto che abbiamo oggi con la tecnologia, questa sezione immagina che civiltà avanzate abbiano una relazione dinamica e ambigua con le loro creazioni.

Nel mondo simulato che ipoteticamente abitiamo si verificano anche orribili atti di violenza, e ovunque sembra esserci sofferenza. Alla luce della presenza del male nel nostro mondo, uno potrebbe arrivare a ritenere la sua creazione indifendibile sul piano morale. Ma sarebbe immorale creare un universo artificiale anche se i creatori avessero limitate possibilità di anticipare lo sviluppo della simulazione, o di porre rimedio, influenzare (o semplicemente fermare) il corso degli eventi simulati? Per dare ulteriore contesto al problema della responsabilità etica nell’ambito della simulazione digitale, potremmo anche chiederci: e se non fosse stato previsto che esseri dotati di valore morale si fossero sviluppati all’interno della simulazione? Come porsi rispetto al problema di una simulazione che inaspettatamente contiene forme di vita moralmente rilevanti? E ancora: fermare o spegnere una simulazione che contiene esseri dotati di rilevanza morale sarebbe un atto immorale o illegale dei nostri creatori, comparabile a un genocidio su scala universale?

Se i nostri creatori ipoteticamente benevolenti non possiedono un controllo totale sulla simulazione né la capacità di fare previsioni a riguardo, è intuitivo concludere che il nostro universo simulato può contenere tranquillamente e senza paradossi ogni quantità di sofferenza e ingiustizia. Ma continuiamo a speculare sullo scenario in cui una civiltà avanzata non possa predire o controllare totalmente gli eventi che accadono nelle simulazioni digitali, né possa decidere di spegnerle. È possibile che l’esperienza dei nostri creatori con simulazioni precedenti non li abbia messi in guardia o scoraggiati dal produrre altre simulazioni? Le iterazioni precedenti possono forse non aver prodotto l’intuizione che il risultato della loro creazione sarebbe stato millenni di abusi e ineguaglianze? Una risposta a queste domande potrebbe essere che viviamo nella prima simulazione completa che la civiltà avanzata in questione abbia creato, e che l’informazione che deriverà da questa simulazione e dalla sua storia di sofferenza sarà determinante per evitare che si sviluppino e mettano in moto altre simulazioni. Tecnicamente, non dobbiamo neppure essere parte della prima simulazione completa per realizzare questo costrutto speculativo, visto che potremmo semplicemente abitare la prima simulazione in cui forme di vita sono evolute al punto da diventare moralmente rilevanti per i loro creatori. In tutti i casi fin qui riportati, i creatori sarebbero giustificati moralmente per aver sviluppato la simulazione in cui abitiamo, ma non dovrebbe essergli permesso moralmente di creare nuove simulazioni dopo aver preso atto di quanto stia accadendo nella nostra. 

Dopo aver analizzato questo primo scenario ipotetico, voglio provare a proporne un altro, simile al precedente, che trovo particolarmente interessante. Immaginiamo che una civiltà tecnologicamente matura non sia capace di predire o alterare il corso di una simulazione o fermarla per ragioni collegate non al loro ethos, ma alle caratteristiche tecniche di tale simulazione digitale. Se volessimo adottare una prospettiva analoga a quella della fisica quantistica, potremmo ipotizzare che i nostri creatori abbiano deciso di costruire l’universo in cui viviamo come un costrutto atemporale. La simulazione, quindi, sarebbe stata generata in un unico momento come un oggetto senza tempo. In altre parole, potremmo vedere il tempo non come una caratteristica dell’universo simulato in cui viviamo, ma come una dimensione appartenente esclusivamente alla nostra esperienza con esso. 

Questo scenario ci porta a intendere il tempo come una qualità della nostra esperienza della simulazione e non dell’universo simulato. La concettualizzazione del tempo come una qualità della nostra esperienza soggettiva ricorda l’idea di tempo di Kant presentata nella prima sezione della Critica della Ragion Pura. Kant propone di intendere il tempo non come una proprietà oggettiva del mondo di cui facciamo esperienza, ma come di una caratteristica del nostro apparato cognitivo. Nell’eventualità che il nostro universo (presumibilmente) simulato sia stato concepito come un oggetto senza tempo, possiamo immaginare che i nostri creatori non siano capaci di intervenire sulla dimensione temporale di cui noi facciamo esperienza.  Questo significa che non potrebbero agire sulle nostre esperienze e stati mentali, né fermarci dal sentirli, né modificare o influenzare retroattivamente il modo in cui li abbiamo vissuti. 

Abbiamo fin qui esaminato gli scenari ipotetici in cui la civiltà avanzata che ha creato il nostro universo simulato non ha un controllo totale sulla simulazione, e non può quindi predirne i risultati. Ci sono una varietà di situazioni in cui l’ipotesi della simulazione digitale può coesistere con quella sulla moralità postumana. In altre parole, ci sono delle circostanze in cui una civiltà avanzata dal punto di vista etico può aver creato il nostro universo simulato, ma pieno di sofferenza. Queste circostanze cadono in una (o entrambe) delle seguenti categorie: 

  1. I nostri creatori non avevano nessuna conoscenza del problema, che significa che la nostra simulazione è la prima (o la prima rilevante dal punto di vista etico) generata dalla civiltà in questione, e che stia producendo conoscenza e informazioni che potrebbero scoraggiare i nostri creatori dal produrre ulteriori simulazioni.

 

  1. I nostri creatori avevano conoscenze pregresse sul problema e hanno ritenuto che la conoscenza derivante da queste simulazioni avrebbe portato a un avanzamento e a dei benefici che utilitaristicamente eclissano preoccupazioni etiche relative alla possibilità di causare sofferenza agli esseri artificiali moralmente rilevanti. 

In conclusione, nel caso in cui stessimo abitando in una simulazione digitale, e i nostri creatori ipotetici e benevolenti non avessero un controllo e una conoscenza completa sulla simulazione, allora la nostra esistenza e il nostro dolore avrebbero la garanzia di avere un significato profondo che trascende le nostre vite individuali ed è più importante della nostra sopravvivenza come specie. In entrambi questi scenari, infatti, la simulazione servirebbe per produrre informazioni e conoscenza per i nostri creatori, informazioni la cui importanza e il cui valore per la loro comunità etica sono più pressanti del nostro benessere.

Secondo caso: un universo simulato su cui i creatori HANNO totale controllo

Il secondo caso che voglio esaminare propone uno scenario ipotetico nel quale i creatori della simulazione digitale in cui viviamo non siano semplicemente benevolenti, ma anche onnipotenti. In linea con le speculazioni di Bostrom, per onnipotenza intendo la capacità di cambiare e modificare ogni aspetto della simulazione che hanno creato, ivi compresi i nostri stati mentali, sentimenti e ricordi individuali.

È forse utile fare un’analogia tra la relazione dei creatori con la simulazione digitale e il modo in cui noi creiamo e modifichiamo i mondi virtuali di videogiochi e simulazioni. Utilizzando game engines, siamo in grado di modificare e iterare su una scena in un mondo virtuale fin quando non siamo soddisfatti del suo risultato funzionale o degli effetti che ha sul giocatore. Come ho specificato, i creatori della simulazione in questo secondo caso sono definiti dalla loro capacità di modificare eventi (inclusi i nostri ricordi), senza che noi possiamo notare discrepanze, intoppi o interruzioni nella simulazione. Nel caso in cui questi creatori abbiano una totale conoscenza e un controllo completo sull’implementazione della simulazione, potremmo essere tentati dal credere – a differenza del primo caso – che la nostra simulazione non sia stata creata per ottenere nuove informazioni. Questa opinione è radicata nel fatto che tutta la conoscenza che può derivare dalla simulazione sarebbe già materialmente realizzata nel modo in cui la simulazione è stata programmata. Per definizione, dunque, quelle idee e quelle nozioni sarebbero già disponibili alla civiltà avanzata che le ha implementate nella simulazione. Se fosse così, i creatori non avrebbero alcun bisogno di simulare alcunché per trovare delle risposte alle loro domande filosofico-scientifiche. Ancora meno probabile è che questi mantengano consapevolmente in funzione una simulazione che consumi immotivatamente risorse e al tempo stesso implichi l’inutile sofferenza di miliardi di esseri artificiali. 

Ma prendiamo in considerazione la possibilità che il mio ragionamento sia sbagliato, e che una civiltà avanzata possa comunque trovare nuove informazioni da simulazioni sulle quali ha totale conoscenza e controllo. In questo nuovo scenario, cosa fermerebbe i nostri creatori dal modificare retroattivamente la simulazione una volta ottenute le informazioni cercate? Cosa gli impedirebbe di emendare tutta la sofferenza nel corso degli eventi imposto agli esseri simulati? Come abitanti della simulazione, non sapremmo o ricorderemmo nulla di ciò che è accaduto in quanto, per la nostra esperienza, non sarebbe semplicemente mai accaduto. In questo caso, è rilevante la possibilità dei creatori di modificare la simulazione in qualsiasi punto, di rimuovere la nostra esperienza degli eventi, di riportare il tempo a un periodo prima dell’inizio della vita, e addirittura di spegnere la simulazione. Questa capacità dei nostri creatori potrebbe modificare retroattivamente qualsiasi circostanza e uso della simulazione, compresi quelli non eticamente permissibili in una civiltà avanzata. A prescindere dal fatto che la simulazione digitale serva per trovare nuove conoscenze o per il divertimento perverso dei nostri creatori, la simulazione potrebbe essere ripristinata e/o modificata in qualsiasi momento per essere sicuri che nessun essere sia stato danneggiato o oppresso durante il corso della sua esistenza individuale. Il fatto che siamo testimoni di genocidi, catastrofi naturali, oppressioni, e torture varie non invalida forse questa ipotesi? Il nostro dolore non indica forse che i nostri benevolenti creatori di fatto non abbiano controllo totale sui nostri mondi virtuali? Parrebbe di sì, ma potrebbero anche esserci delle eccezioni. Per esempio, non possiamo escludere di essere parte di una simulazione che è stata lasciata accidentalmente incustodita. È uno scenario difficilmente plausibile, ma potremmo stare abitando una simulazione che è stata lasciata in funzione per sbaglio (ad esempio, i nostri creatori potrebbero aver disabilitato il software per monitorare la simulazione, oppure per qualsiasi ragione, la sezione del super computer che su cui esiste la simulazione potrebbe essere diventata inaccessibile). 

Sulla base di quanto discusso in questa sezione, non sembra molto plausibile che viviamo in una simulazione che è stata sviluppata da creatori che siano al tempo stesso onniscienti e benevolenti. 

Conclusioni

Questo articolo ha proposto di supplementare l’ipotesi della simulazione digitale con l’ipotesi sulla moralità postumana, ovvero dall’idea che stiamo vivendo all’interno di una simulazione digitale, e che la civiltà che ha sviluppato questa simulazione considera un dovere morale di base rispettare e preservare la nostra autonomia e il nostro benessere. Partendo da queste premesse, ho proposto qualche argomento su quella che potrebbe essere considerata una teodicea per universi artificiali. La presenza del male e della sofferenza nel mondo presumibilmente simulato che abitiamo potrebbe essere giustificabile eticamente nel caso incontrassimo uno o più degli scenari seguenti: 

  1. La nostra simulazione è la prima del suo tipo ad aver dato vita ad esseri individuali che sono degni di considerazione etica dai creatori della simulazione;
  2. la nostra simulazione ha lo scopo di fornire conoscenze che i nostri creatori considerano eticamente positive per la loro comunità sul lungo periodo;
  3. la nostra simulazione è stata dimenticata o lasciata incustodita.

Avrete notato che l’ultimo scenario (3) non dipende da una particolare relazione tra i creatori della simulazione e il loro livello tecnologico. Non richiede neppure che immaginiamo la civiltà avanzata che presumibilmente controlla la simulazione come attivamente interessata nel limitare i danni (ed evitare i potenziali danni) a una comunità morale vasta e inclusiva. Il terzo è, in ogni caso, uno scenario ipotetico che esclude quasi del tutto la possibilità per le nostre esistenze individuali e la nostra esistenza collettiva di avere un significato che trascende le preoccupazioni e la durata della nostra civiltà. 

Diversamente dal terzo scenario, il primo e il secondo dipendono direttamente dalla benevolenza dei creatori della nostra simulazione. Se stessimo effettivamente esistendo in uno di questi due scenari, allora la nostra esistenza e la nostra sofferenza avrebbero certamente un significato che trascende le nostre vite e la nostra sopravvivenza come specie. La nostra simulazione, infatti, starebbe producendo informazioni importanti per i nostri creatori, informazioni che questi considerano più pressanti delle nostre sofferenze. 

È difficile stabilire quanto sia verosimile che viviamo in una simulazione digitale. È però probabile che saremo capaci di averne una comprensione maggiore con il progresso scientifico e lo sviluppo di una maggiore conoscenza del nostro universo. In mancanza di certezze, possiamo comunque consolarci con il pensiero che – nel caso i nostri presunti creatori non siano malvagi o folli – l’oppressione e la sofferenza di cui facciamo esperienza nella nostra vita con ogni probabilità non è futile.  

Bibliografia

Bostrom, N. (2003). “Are we living in a computer simulation?” The Philosophical Quarterly, 53 (211), pp. 243-255.

Chalmers, D. J. (2005). “The Matrix as metaphysics”. In Philosophers Explore the Matrix. Oxford, UK: Oxford University Press, pp. 132-176.

Coeckelbergh, M. (2010). “Robot rights? Towards a social-relational justification of moral consideration”. Ethics and information technology, 12 (3), pp. 209-221.

Descartes, R. (2013) [1641]. René Descartes: Meditations on first philosophy: With selections from the objections and replies. Cambridge, MA: Cambridge University Press.

Gualeni, S. (2020). “Artificial Beings Worthy of Moral Consideration in Virtual Environments: An Analysis of Ethical Viability”. Journal of Virtual World Research, 13 (1).

Gunkel, D. J. (2018). Robot rights. Cambridge, MA: The MIT Press.

Kant, I. (2000) [1998]. Critique of Pure Reason. Trans. Guyer, P. and Wood, A. W. Cambridge, MA: Cambridge University Press.

Leibniz, G. W. (2000) [1710]. Theodicy: Essays on the Goodness of God, the Freedom of Man and the Origin of Evil. Eugene (OR): Wipf and Stock Publishers.

Neely, E. L. (2014). “Machines and the Moral Community”. Philosophy & Technology, 27 (1), pp. 97-111.


STEFANO GUALENI, professore associato presso l’Università di Malta, È UN FILOSOFO E GAME DESIGNER ITALIANO. HA CREATO VIDEOGIOCHI COME TONY TOUGH E THE NIGHT OF ROASTED MOTHS, GUA-LE-NI; O, THE HORRENDOUS PARADE, E SOMETHING SOMETHING SOUP SOMETHING.

Ti è piaciuto questo articolo? Da oggi puoi aiutare L’Indiscreto a crescere e continuare a pubblicare approfondimenti, saggi e articoli di qualità: invia una donazione, anche simbolica, alla nostra redazione. Clicca qua sotto (con Paypal, carta di credito / debito)

1 comment on “Una teodicea per universi artificiali

  1. Nella realta` simulata, e` la proiezione che ci consente di muovere quella che noi definiamo materia. Attraverso l`uso della coscienza che ci viene inviata dal nostro io multidimensionale possiamo accedere ed entrare in contatto con la realta` quantica
    Spero di essere stata chiara

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *