Lungotermismo: la filosofia peggiore di sempre?

Cos’è il “longtermism”, una filosofia di moda tra le élite dei multimilionari, e perché è molto pericoloso.


in copertina, Enrico Baj, Larmes de Generaux (1965) – Litografie a colori – Asta Pananti in corso

di Irene Doda

Lo scorso mese FTX, una delle più grandi piattaforme per lo scambio di criptovalute, è collassata su se stessa, dando un altro colpo a un mercato, quello della moneta digitale, che quest’anno ha già attraversato diverse vicissitudini, e mandando in fumo i risparmi di molte persone. Il fallimento di FTX ha colpito anche l’immagine pubblica del suo fondatore, Sam Bankman-Fried, che nel giro di poche settimane si è conquistato le prime pagine dei giornali di tutto il mondo. Bankman-Fried si definiva un miliardario atipico: la stampa ha largamente raccontato la sua “filosofia da Robin Hood”, quella di un giovane di poco più di trent’anni che voleva dare in beneficenza gran parte della sua straordinaria fortuna. Bankman-Fried aderiva a una corrente di pensiero chiamata “altruismo effettivo”, traduzione dell’espressione inglese “effective altruism” e al movimento ideologico  del “longtermism”. 

Un debito con il futuro

Prima di proseguire con l’analisi occorre soffermarci su una questione terminologica. Nonostante i nomi delle due filosofie siano assai più popolari in lingua inglese, qui userò le traduzioni italiane. Parlerò quindi di “lungotermismo” e “altruismo effettivo”, anche se la prima non è una parola presente nel vocabolario della nostra lingua.

La piattaforma FTX è stata fondata nel 2019, con l’obiettivo esplicito di contribuire a cause filantropiche. Si tratta di uno dei pilastri della filosofia dell’altruismo effettivo: secondo questa visione piuttosto che modificare i propri comportamenti individuali per migliorare il proprio ambiente o la società in cui si vive, (ad esempio facendo volontariato o riducendo i consumi di beni ad alto impatto ambientale) è molto più utile accumulare vaste ricchezze e donare ad organizzazioni che si occupano di cause che ci stanno a cuore, o del futuro dell’umanità. Insomma, investire in criptovalute o lavorare per una compagnia petrolifera per poi darsi alla filantropia avrebbe un impatto più proficuo, nel lungo periodo, che ridurre il consumo di plastica o diventare vegani. 

Il lungotermismo può considerarsi una costola dell’ “altruismo effettivo” – spesso i seguaci di una corrente di pensiero sono i seguaci dell’altra. L’idea di base è che il benessere e la sopravvivenza delle generazioni future, delle persone che vivranno tra migliaia o addirittura milioni di anni, sia una “priorità morale fondamentale” per gli esseri umani che abitano il presente. “Le nostre vite hanno sicuramente la stessa importanza di quelle vissute migliaia di anni fa, quindi perché le vite delle persone che vivranno tra migliaia di anni non dovrebbero avere la stessa importanza?” si legge sul sito del Centro per l’altruismo effettivo, un think tank che si occupa di divulgare i principi di questa filosofia. 

La storia di Sam Bankman-Fried non è la sola ad aver condotto all’attenzione mediatica le filosofie dell’altruismo effettivo e del lungotermismo. È stato da poco pubblicato in lingua inglese un libro del filosofo scozzese William MacAskill,  intitolato What we owe the future, (“Cosa dobbiamo al futuro”), che ha contribuito a riportare il lungotermismo alla ribalta nel dibattito pubblico, soprattutto tra chi si occupa del rapporto tra umanità e tecnologia. 

Nel suo libro, MacAskill argomenta che non basta evitare le catastrofi a noi sempre più vicine, come gli effetti del cambiamento climatico o la povertà globale, ma che è necessario “garantire che la civiltà possa rinascere dopo il collasso”, adottando quindi una prospettiva di milioni di anni nel futuro. Un altro teorico fondamentale è Nick Bolstrom, fondatore del Future of Humanity Institute, un istituto di ricerca operante all’interno dell’Università di Oxford, e uno degli esponenti di punta del transumanesimo – il movimento culturale che promuove il miglioramento, o enhancement, fisico dell’essere umano attraverso la manipolazione tecnologica del corpo. 

Insomma, gli altruisti effettivi e i “lungotermisti” vogliono fare del bene, per davvero, non solo nel presente ma anche nel futuro lontano. Cosa c’è di controverso o di problematico in questa visione? 

Il filosofo Emile Torres, uno dei critici contemporanei più attivi nel dibattito sul lungotermismo, sostiene che l’imperativo morale di raggiungere il “potenziale più alto” dell’umanità nel futuro lontano possa avere delle conseguenze terribili nel presente e nel prossimo futuro. In primis può portare a ignorare gli effetti più immediati dei comportamenti umani, dei sistemi economici e politici, dei rapporti di potere che regolano la nostra società. “Anche se il cambiamento climatico causasse la scomparsa di nazioni insulari, scatenasse migrazioni di massa e uccidesse milioni di persone, probabilmente non comprometterebbe il nostro potenziale a lungo termine nei prossimi trilioni di anni”, ha scritto Torres. L’idea di rischio esistenziale (un concetto coniato da Bostrom nel 2002), ovvero di minaccia alla sopravvivenza della società umana, rende potenzialmente irrilevanti pademie, disastri nucleari, guerre sanguinose o eventi climatici estremi. Se l’obiettivo è quello di preservare il potenziale della civiltà umana nel lunghissimo termine, cosa importa se qualche isola scompare, se qualche fetta di popolazione soffre, se qualche specie non umana si estingue per sempre?

Un altro punto controverso è la visione sempre positiva della crescita dell’umanità: più persone ci sono, più la civiltà può portare avanti il suo potenziale. Nel futuro, dicono i lungotermisti, esisteranno miliardi di miliardi di individui: le nostre azioni devono essere pensate e progettate al servizio di questa umanità ipotetica, eppure importante e reale quanto noi stessi.  I pochi uomini e donne che abitano il pianeta Terra oggi non sono che una frazione dell’umanità potenziale di domani – MacAskill ha scritto che l’umanità oggi non è che “un adolescente impulsivo” – e il loro numero inferiore  ne determina un minor valore. Cosa siamo disposti a sacrificare per il bene superiore delle generazioni non ancora nate, si chiedono ancora i critici? 

Immaginate una situazione in cui potreste sollevare dalla povertà estrema 1 miliardo di persone presenti o beneficiare lo 0,00000000001 per cento dei 1023 esseri umani biologici che, secondo i calcoli di Bostrom, potrebbero esistere se colonizzassimo il nostro quartiere cosmico, il Superammasso della Vergine. Quale opzione scegliere? Per i sostenitori del lungo termine, la risposta è ovvia: dovreste scegliere la seconda. Perché? Basta fare due conti: lo 0,00000000001 per cento di 1023 persone è pari a 10 miliardi di persone, che è dieci volte superiore a 1 miliardo di persone. Ciò significa che se si vuole fare del bene, bisogna concentrarsi su queste persone del futuro piuttosto che aiutare chi oggi è in estrema povertà”, scrive Torres. 

Questa visione radicale è nota come “strong longtermism”, lungotermismo forte. A differenza del “lungotermismo debole”, che si limita a guardare al futuro delle prossime generazioni, può generare paradossi come quello descritto da Torres. Un’altra delle differenze chiave è che la versione debole dell’ideologia afferma che il benessere delle generazioni future è una delle priorità, non la priorità morale più imperativa. Personaggi come MacAskill hanno più volte detto di simpatizzare per la versione più radicale, ma sono finiti a sposare la causa di un lungotermismo più moderato per ragioni di marketing e facilità di approccio al pubblico. 

Un’ideologia utile

Il lungotermismo avalla apertamente i progetti di colonizzazione del cosmo, di digitalizzazione dell’umanità e di creazione di super-intelligenze artificiali. Il potenziale dell’umanità si realizzerebbe nell’iper-tecnologia espansionistica, nella creazione di realtà parallele alternative, e nel miglioramento biologico delle nostre caratteristiche di specie attraverso mezzi artificiali. Nel suo libro del 2014, Superintelligenza, Bostrom argomenta proprio che le schiere di esseri umani nel futuro vivranno “vite ricche e felici interagendo l’uno con l’altro in ambienti virtuali”. Anche MacAskill ha stimato che 1045  individui digitali coscienti abiteranno la Via Lattea. 

Ma l’aspetto più preoccupante della filosofia del lungotermismo non sono le utopie (o distopie) cosmiche proiettate nell’arco di trilioni di anni, ma l’utilità di questa filosofia nel rafforzare i sistemi e i rapporti di potere qui e ora. Elon Musk, l’uomo più ricco del mondo e nuovo proprietario di Twitter, ha affermato in un tweet che i concetti espressi da McAskill erano “molto vicini alla sua filosofia”. Lo stesso Musk ha donato un milione e mezzo di dollari al Future of Humanity Institute. Jason Matheny, ex assistente di ricerca del FHI è stato vice assistente del presidente degli Stati Uniti Joe Biden ed è ora a capo della RAND Corporation, un think tank di ricerca che collabora strettamente con le forze armate statunitensi. Toby Ord, un altro filosofo del lungotermismo, autore del volume The Precipice, è stato consigliere dell’Organizzazione Mondiale della Sanità, del World Economic Forum, e ha addirittura contribuito a un paper delle Nazioni Unite, che menziona il lungotermismo in modo esplicito. 

Torres ha detto che il lungotermismo è “l’ideologia più influente di cui probabilmente il pubblico generalista non ha mai sentito parlare”. Il punto è che questa ideologia è estremamente utile alle visioni tecnocratiche dei miliardari del settore tecnologico: non c’è bisogno di pensare al presente, agli effetti delle proprie azioni sui milioni di persone che subiscono le conseguenze di un sistema iniquo. Paris Marx, un critico da sinistra dell’industria tecnologica, ha scritto su New Statesman: Il lungotermismo è un sogno tecnocratico che ha come fine quello di dare ad alcune delle persone più ricche del mondo la capacità di pianificare il futuro lontano dell’umanità secondo i loro capricci personali. È hubris, che tratta miliardi di persone come pedine di super-ricchi che si comportano come dei, che accumulano fortune impensabili e cercano costantemente nuovi modi per produrre consenso”. È  difficile non vedere la convenienza di questa visione: non c’è sforzo per un cambiamento condiviso, ci sono sogni astratti di futuro, ma c’è un potere che rimane ben saldo nelle mani di chi già lo detiene. 

In queste prospettive del futuro della civiltà, così come nei sogni di colonizzazione dello spazio, o di digitalizzazione della realtà di cui si riempiono la bocca personaggi come Elon Musk, Mark Zuckerberg o Jeff Bezos, non vi è nessuno spazio per l’analisi dei rapporti di potere nel presente, nella realtà dei fatti.  I miliardari ci vogliono far credere che ci troviamo tutti sulla stessa barca e che l’avvenire dell’umanità dipenda da scelte più o meno ambiziose, da tecnologie più o meno lungimiranti. Ma non sono certo loro a subire in prima battuta i danni delle catastrofi che il sistema economico e geopolitico in cui viviamo ha contribuito a causare: non sono le prime vittime degli eventi climatici estremi, delle guerre o delle pandemie. 

La storia di Sam Bankman-Fried, mette in luce la contraddizione delle filosofie lungotermiste e afferenti al campo dell’altruismo effettivo. Un uomo ricchissimo, votato a cause teoricamente nobili, ha accumulato la sua fortuna in un’industria eticamente controversa come quella delle criptovalute, per poi crollare rovinosamente insieme ai suoi investitori. Le ideologie utili all’elite tech non mettono al riparo dalle conseguenze di un sistema ingiusto, nonostante le promesse di una felicità lontana trilioni di anni. 


Irene Doda ha 28 anni, vive e lavora in Romagna. Scrive per Wired, Il Tascabile, Siamomine, Emma Rivista e altre testate online e cartacee. È co-autrice e speaker del podcast Anticurriculum, sul futuro del mondo del lavoro.

0 comments on “Lungotermismo: la filosofia peggiore di sempre?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *