Nella gabbia di Skinner: social media, pessimismo e falso Sé

Nonostante i suoi limiti, il documentario The Social Dilemma solleva diverse domande interessanti: i problemi tecnologici non possono essere risolti dalla tecnologia; la tecnologia modifica il nostro sguardo sulla tecnologia; grazie alla tecnologia l’essere umano è diventato il terreno di sfruttamento del capitalismo.


IN COPERTINA e nel testo: Giancarlo Baglini, Senza titolo (1971) – Acrilico su tela – Asta PAnanti online

di Gianluca Didino

Lily: «She’s not alive. She’s a computer simulation»

Forest: «Explain the difference»

Alex Garland, DEVS, 2020  

Ho sentito parlare così male di The Social Dilemma, il nuovo documentario di Netflix sul lato oscuro dei social media (“dogmatico”, “semplificatorio”, “ridicolo”, “inutile”, “allarmista”, cito a memoria alcuni commenti di contatti Facebook) che naturalmente ho voluto guardarlo. Il documentario è effettivamente un po’ dogmatico e semplificatorio, sicuramente è spesso ridicolo – le scene in cui Vincent Kartheiser incarna l’algoritmo malvagio fanno a gara per comicità involontaria con quelle in cui un giovane dall’aria non molto sveglia viene trascinato in una spirale di fake news e risentimento così estrema da ricordare quelle parabole edificanti contro l’uso della droga che andavano in onda sulla Rai negli anni Novanta, condotte da Massimo Giletti. Non  lo definirei però “inutile” né “allarmista”, a meno che non si consideri tale urlare all’incendio quando la casa sta andando in fiamme. The Social Dilemma vuole comunicare a un pubblico ampio i rischi di tecnologie che pervadono la nostra vita e lo fa ribadendo continuamente lo stesso punto, che alla fine arriva per forza di cose forte e chiaro.

Nonostante i limiti, il documentario solleva diverse domande interessanti. Almeno tre di queste, formulate rispettivamente da Cathy O’Neil, Sandy Parakilas e Justin Rosenstein, meritano una discussione più approfondita.

A un certo punto nel documentario vediamo una deposizione rilasciata da Mark Zuckerberg in un tribunale americano riguardo al ruolo giocato da Facebook nella manipolazione dell’opinione pubblica durante le elezioni presidenziali del 2016. Zuckerberg sostiene, con un argomento caro alla Silicon Valley, che «la soluzione sul lungo termine [al problema delle Intelligenze Artificiali che manipolano i risultati elettorali] è costruire più Intelligenze Artificiali capaci di trovare pattern tra le persone che utilizzano i servizi che persone reali non seguirebbero». Si noti qui l’assenza di virgolette su quel “persone” intendendo “bot”.

Commentando questa dichiarazione, la matematica Cathy O’Neil sostiene che «stiamo lasciando che la Silicon Valley definisca questo problema come un problema tecnologico che solo loro possono risolvere. Ma questa è una bugia. La gente parla dell’Intelligenza Artificiale come se questa sapesse la verità. Ma l’AI non può risolvere questi problemi. Non può risolvere il problema delle fake news. Google non ha l’opzione di dire, “Oh, questa è una cospirazione? O è la verità?”, perché non sanno cosa sia la verità. Non hanno niente che possa indicare cosa sia la verità in maniera più soddisfacente di un click».

Il secondo tema interessante viene sollevato da Sandy Parakilas, ex Operation Manager di Facebook ed ex Product Manager di Uber, quando si sofferma sul fatto che nessuno, in realtà, ha controllo sulle tecnologie, che una volta attivate seguono percorsi autonomi rispetto alla volontà umana. «In queste aziende», sostiene Parakilas, «c’è solo una manciata di persone che capisce come funzionino questi sistemi, e anche queste persone non capiscono completamente cosa succede all’interno di un particolare componente. Quindi, come umani, abbiamo di fatto perso il controllo su questi sistemi. Poiché questi sistemi controllano l’informazione che vediamo, sono loro a controllare noi più di quanto siamo noi a controllare loro». Il commento di Parakilas solleva un problema filosoficamente centrale, quello della differenza tra soggetto e oggetto: come facciamo ad avere uno sguardo obiettivo sulle tecnologie se esse hanno cambiato il modo in cui guardiamo?

Il terzo argomento arriva proprio alla fine del film, quando Justin Rosenstein (ex Product Manager di Google, poi co-fondatore di Asana) riflette sul business model delle aziende della Silicon Valley. «Viviamo in un mondo», dice Rosenstein, «in cui da un punto di vista finanziario un albero vale di più da morto che da vivo, in cui una balena vale di più da morta che da viva. Finché l’economia andrà in quella direzione, e le aziende continueranno a non essere regolate, continueremo a distruggere alberi e uccidere balene, scavare la terra, estrarre petrolio, anche se sappiamo che tutto questo sta condannando il pianeta e che lascerà un mondo peggiore alle prossime generazioni […]. Tutto questo sta capitando all’ambiente da molto tempo. Ciò che è spaventoso, ma che forse è anche il fondo del barile, ciò che potrebbe farci aprire gli occhi come civiltà su quanto sbagliata questa teoria sia stata fin dall’inizio, è che ora noi siamo l’albero, noi siamo la balena. La nostra attenzione è il terreno dell’attività estrattiva. Noi stessi siamo più redditizi per una corporation se passiamo il nostro tempo a fissare uno schermo, a fissare un annuncio pubblicitario, piuttosto che se viviamo la vita in una maniera ricca e significativa».

Questi tre argomenti (i problemi tecnologici non possono essere risolti dalla tecnologia; la tecnologia modifica il nostro sguardo sulla tecnologia; grazie alla tecnologia l’essere umano è diventato il terreno di sfruttamento del capitalismo) mi sembrano tutti legati da un punto che nel documentario rimane sempre inevaso se non contestato esplicitamente: l’idea che ci sia un vizio di base nella maniera in cui le tecnologie che permeano la nostra vita sono state concepite. Non si tratta affatto, come ripetono quasi tutti gli intervistati in The Social Dilemma, di strumenti creati per il bene dell’umanità che in qualche modo sono sfuggiti al controllo, ma di strumenti che hanno incorporato nella propria struttura tecnica una Weltanschauung ben precisa. Questa visione del mondo, mi sembra, è stata viziata fin dall’inizio da un bias che potrei solo definire pessimista.

Com’è noto le origini della moderna informatica affondano nella cibernetica, quella disciplina che il suo pioniere Norbert Wiener definì nel 1948 «lo studio scientifico del controllo e della comunicazione nell’uomo e nella macchina». In un capitolo intitolato significativamente «Bug in the System» del suo L’alba del nuovo tutto (Il Saggiatore, 2019), Jaron Lanier (che negli ultimi trent’anni è stata una delle poche voci fuori dal coro tra i tecnocrati della Silicon Valley e non per niente è tra gli intervistati di The Social Dilemma) fa notare come il clima culturale in cui nacque e si sviluppò la cibernetica era intriso di paranoia, sospetto e pessimismo per le sorti dell’umanità, che si era appena scoperta capace di orrori come Auschwitz e Hiroshima.

«La seconda guerra mondiale aveva lasciato un senso di paura, la sensazione che l’agentività umana potesse essere minacciata dalla tecnologia», scrive Lanier. «I nazisti avevano sviluppato nuove tecnologie come la propaganda cinematografica per rendere una grande parte della popolazione complice dell’invenzione del genocidio industrializzato». Inoltre «il periodo successivo alla guerra era stato perseguitato dalla paura del controllo psichico. Psicologi come Ivan Pavlov, John B. Watson e B.F. Skinner avevano mostrato che l’applicazione del feedback controllato può essere applicata per modificare il comportamento. Il sapore metallico e oscuro della paranoia moderna che si può trovare in scrittori come William Burroughs, Thomas Pynchon, Philip K. Dick e la scuola cyberpunk […] aveva in realtà avuto inizio nel terrore provato dai non-scienziati di essere diventati topi da laboratorio».

Come mostra Lanier, l’emblema di questo approccio al controllo mentale era proprio Skinner, l’inventore già nel 1926 di un apparato chiamato «Operant conditioning chamber» ma passato alla storia come “gabbia di Skinner”. La “camera” consiste in una scatola con una leva, all’interno della quale si trova un ratto. Se il ratto tira la leva riceve cibo attraverso un buco nella scatola: quando l’animale lo capisce naturalmente è portato a utilizzare la leva più spesso per ottenere più cibo (questo è il feedback della cibernetica). In altri casi però tirare la leva può produrre una “punizione”, come una scossa elettrica, che altera il comportamento del ratto. Attraverso la somministrazione combinata di premi, punizioni e stimoli neutrali, come luci e colori, l’apparato di Skinner aveva fatto fare passi avanti da gigante alla teoria di cui lo psicologo era esponente, già formulata da Watson all’inizio del secolo: il comportamentismo.

Il comportamentismo (utilizzo la definizione di Wikipedia, che è ottima) è quell’approccio «basato sull’assunto che il comportamento esplicito dell’individuo sia l’unica unità di analisi scientificamente studiabile dalla psicologia, avvalendosi del metodo stimolo (ambiente) e risposta (comportamento) in quanto direttamente osservabile dallo studioso». Rispetto a Watson, Skinner portava questo discorso a un passo successivo, radicalizzandolo, quando sosteneva che tutti i comportamenti umani, compresi quelli complessi come il linguaggio o il pensiero, fossero riconducibili al condizionamento.

Mi sembra evidente come questo sia un approccio sostanzialmente pessimistico all’essere umano o, come mi ha detto Lanier quando l’ho intervistato qualche anno fa, quantomeno un approccio basato sull’idea che gli umani siano esseri egoisti che agiscono in maniera predeterminata per il proprio tornaconto. Da un lato l’applicazione del comportamentismo all’uomo funziona solo pensando all’essere umano in termini di un determinismo radicale, al punto che a uno stesso stimolo seguirà sempre una stessa risposta (nel caso dei comportamenti complessi saranno semplicemente necessari stimoli complessi). Dall’altro la sua applicazione nel campo della psicoterapia, ad esempio nel modello della terapia cognitivo-comportamentale (CBT) a partire dagli anni Settanta, si basa sull’idea che le ragioni profonde del malessere del paziente siano meno importanti del comportamento osservabile dall’esterno, e che attraverso il condizionamento di quest’ultimo si possano modificare le prime. Questo approccio può essere molto utile per affrontare problemi come le dipendenze, ad esempio, ma nega il valore intrinseco delle ragioni che hanno portato al malessere: il cervello viene “ricalibrato” per spingerti a smettere di fumare, ma la ragione per cui fumavi non viene veramente presa in considerazione. Dunque a venir completamente bypassato è il problema del senso: la mente viene vista come una “macchina” che deve essere aggiustata.

Soprattutto però questo approccio apre possibilità inquietanti: se l’essere umano è, alla pari del ratto, semplicemente un meccanismo che a determinati stimoli reagisce sempre con determinate risposte, diventa molto semplice per lo scienziato che si trova dall’altra parte della gabbia di Skinner cadere nella tentazione di utilizzare premi e punizioni per manipolare le azioni dell’inconsapevole soggetto. Questo è esattamente ciò che dagli anni Trenta comincia a capitare con la propaganda e poi, dagli anni Cinquanta e in maniera più raffinata, con i messaggi pubblicitari.

Lanier mette in luce chiaramente come il comportamentismo skinneriano sia alla base dei social media moderni: «Il comportamentismo è stato ridotto a un gadget nella cultura pop. Fai un tweet per ottenere una ricompensa immediata, per l’attenzione, anche se sei il Presidente degli Stati Uniti. Cominci a salivare non appena senti il rumore di un fischietto [il riferimento qui è ai celebri esperimenti di Pavlov]. La gabbia di Skinner è diventata l’archetipo. Una persona in una gabbia di Skinner ha l’illusione del controllo ma in realtà è controllata dalla gabbia, o meglio da chi sta dietro la gabbia».

Ci sarebbero tanti esempi a supporto di questa tesi. Due di questi sono stati portati da Adam Curtis, che nella serie di documentari The Century of the Self andata in onda sulla BBC nel 2002 ha esplorato il rapporto tra la psicologia applicata alle pubbliche relazioni, la fabbricazione del consenso attraverso tecniche di manipolazione psichica nell’America post-bellica e la diffusione della paranoia. In una serie successiva di documentari, The Trap (BBC, 2007) Curtis ha poi soffermato l’attenzione sul ruolo giocato da John Nash, uno degli inventori della teoria dei giochi, nello sviluppo di modelli matematici predittivi del comportamento umano. La schizofrenia paranoide sviluppata da Nash, dice Curtis, aveva più a che vedere con un incubo che con il ritratto del genio ribelle fattogli da Ron Howard e Russell Crowe in A Beautiful Mind: Nash era convinto che tutte le persone fossero esseri profondamente egoisti e sospettosi che agivano nel proprio interesse e con lo scopo di nuocere agli altri. Questa cupa concezione dell’essere umano, forse parzialmente causata da un disagio mentale latente (o così suggerisce Curtis), sarebbe finita nella tesi di dottorato del 1950 con cui Nash teorizzò per la prima volta il concetto di “equilibrio” che gli valse il Premio Nobel per l’Economia nel 1994.

Più importante è notare che la natura potenzialmente distopica di questo approccio alla tecnologia era già chiara nel 1950, all’alba della storia dell’informatica, come dimostra la pubblicazione di The Human Use of Human Beings di Norbert Wiener, uno tra i padri del moderno computer. Fin dagli esordi, come abbiamo visto, la cibernetica comprendeva che nel mondo pienamente automatizzato del futuro esseri umani e macchine sarebbero stati elementi di uno stesso sistema in costante comunicazione tra loro, che i processi di feedback avrebbero influenzato entrambi e che le conseguenze di questo feedback loop avrebbero potuto essere catastrofiche per l’essere umano se non fossero state adottate alcune soluzioni. Una di queste era non confondere i computer con gli uomini, e nello specifico non fidarsi ciecamente del giudizio di meccanismi incapaci di astrazione e mossi da una logica totalmente utilitaria.

Come nota ancora Lanier, «Wiener aveva compreso che i computer sarebbero un giorno diventati potenti abbastanza da gestire gabbie di Skinner più evolute, più efficienti, più difficili da smascherare e infinitamente più inquietanti. Se leggete Wiener con attenzione diventa subito chiaro che con sensori migliori, un potere di calcolo maggiore e un migliore feedback sensoriale, una gabbia di Skinner potrebbe essere costruita intorno a una persona pienamente cosciente senza che questa se ne accorga. Wiener conforta il lettore sottolineando che sarebbe così difficile costruire uno strumento di computazione e un network di comunicazione di tali dimensioni che il pericolo è solo teorico». Ciò che Lanier implica parlando di “network di comunicazione” è ovviamente che settant’anni dopo la pubblicazione di The Human Use of Human Beings questo sistema esiste, è gratuito e tutti noi abbiamo registrato un account di nostra spontanea volontà.

Fin qui ho commentato le posizioni di O’Neil e Rosenstein: la tecnologia non può essere una soluzione per i problemi sollevati dalla tecnologia perché è inficiata da un bias pessimista che vede l’essere umano come un automa e dunque non si fa scrupoli a sfruttarne l’attenzione come fonte di reddito. Questa forma di riduzionismo è sempre il presupposto perché gli uomini si sentano moralmente legittimati a sfruttare altri esseri viventi: ad esempio il capitalismo secentesco potè iniziare la sua opera di sfruttamento e controllo della natura solo dopo che filosofi come Descartes avevano ridotto gli animali ad automi. Da questo punto di vista lo sfruttamento dell’essere umano di cui parla Rosenstein è soltanto il necessario passo successivo di un percorso secolare.

Resta ora da commentare la posizione di Parakilas per cui le tecnologie produrrebbero un’alterazione del nostro sguardo sulle tecnologie tale che a cadere sarebbe la stessa divisione tra soggetto osservante e oggetto osservato. Un buon modo per affrontare questo tema è rifarci al funzionamento del test di Turing.

Il test di Turing si basa su un’idea simile a quella del comportamentismo: alla macchina dall’altra parte non è chiesto di essere umana, ma di comportarsi come se fosse umana. Questa distinzione può sembrare banale (come potrebbe una macchina essere umana?) ma non lo è. Lanier dimostra come il passaggio dall’idea di cibernetica a quella di Intelligenza Artificiale avvenuto a seguito della pubblicazione dall’articolo di Turing, anch’esso del 1950, abbia «confuso le acque» inserendo nel dibattito una dimensione metafisica che non era presente in Wiener.

Questa “confusione metafisica” ci immerge istantaneamente nell’esperimento mentale dello zombie filosofico esposto da David Chalmers ne La mente cosciente del 1996: io so di essere vivo perché possiedo percezioni della mia interiorità, ma, dato che non percepisco l’interiorità delle persone attorno a me, come faccio a essere certo che anche loro siano vive e non siano, piuttosto, degli zombie, esseri non coscienti che sembrano solo esserlo dall’esterno? Come il test di Turing, l’esperimento mentale di Chalmers solleva il problema del rapporto tra l’essere qualcosa e comportarsi in un determinato modo: in entrambi i casi l’aspetto perturbante nasce dal fatto che esseri non coscienti si comportano come se lo fossero, facendoci credere di essere persone quando in realtà non lo sono.

Oggi i rapporti quotidiani che abbiamo con le AI (bot su Twitter, chat di assistenza automatizzate o, in maniera più inquietante, algoritmi che gestiscono profili Facebook come se fossero utenti reali) ci pone a contatto continuo con questo tipo di incertezza metafisica. Come facciamo a essere certi che la persona con cui sto parlando sia davvero una persona e non un profilo finto manipolato da un algoritmo impersonale? E se io ho questo dubbio, anche le persone che interagiscono con me l’avranno: anche loro possono essere certe soltanto di non essere zombie (o automi) essi stessi, ma non possono avere opinioni dimostrabili sullo statuto ontologico dell’entità con cui stanno interagendo, che in questo caso sono io. Come nel caso della paranoia moderna citata da Lanier (pensiamo a Blade Runner e al romanzo di Philip Dick da cui è tratto) siamo bloccati in un meccanismo di sospetto reciproco simile a quello ipotizzato da Nash.

Giancarlo Baglini, Senza titolo (1971) – Acrilico su tela – Asta Pananti online

Un’altra maniera di esprimere la misura del successo nel test di Turing è quella di dire che la macchina deve saper fingere di essere umana, cioè deve dare all’interlocutore ciò che esso desidera per identificarla come tale. In altre parole deve saper manipolare l’interlocutore, traendolo in inganno.

Una delle maniere di guardare al problema sollevato da Parakilas è quella di concentrarsi sulla maniera in cui i social media diffondono ciò che negli anni Sessanta Donald Winnicott ha definito “falso Sé”. Winnicott definiva il vero Sé (uso ancora le definizioni di Wikipedia) come «la spontanea e autentica esperienza di sentirsi vivi» e il falso Sé come «una facciata difensiva che, in casi estremi, lascia chi la possiede privo di spontaneità e con una sensazione di essere morto e vuoto, una mera apparenza dell’essere reale».

Come ha spiegato Alice Miller, che ha elaborato il concetto di falso Sé negli anni Settanta e Ottanta (si veda ad esempio The Drama of the Gifted Child, 1979), questo genere di personalità, che Winnicott definisce anche «personalità come se», si forma a seguito di una dinamica di questo tipo: un bambino non viene amato dai genitori per ciò che è, ma solo se si conforma a determinati comportamenti, ad esempio se si dimostra gentile o responsabile. In questa maniera, il bambino introietta l’idea che il suo vero Sé non sia accettabile e vada cioè nascosto o rimosso, mentre sviluppa un falso Sé protettivo volto a compiacere il genitore, a dare cioè al genitore ciò che esso desidera (nel nostro esempio il bambino si dimostrerà gentile e responsabile).

Com’è facile vedere siamo di nuovo di fronte al conflitto tra essere qualcosa e comportarsi in un certo modo: la persona affetta da falso Sé si appiattisce sul comportamento, si identifica con il proprio comportamento fino a dimenticare i suoi reali desideri e perdere traccia del proprio vero Sé. Da qui la «sensazione di essere morto e vuoto, una mera apparenza dell’essere reale».

Ora, qui dobbiamo fare una precisazione importante e ricordare che in psicologia c’è una differenza sostanziale tra il Sé e l’Io (si veda ad esempio Jung, L’io e l’inconscio), laddove il primo è la personalità nel suo insieme, cioè l’unione di mente cosciente e inconscio, mentre il secondo è semplicemente il centro della mente cosciente. Oggi ad esempio le neuroscienze ci insegnano che non esiste niente come un Io stabile, ma non si esprimono sul Sé, che è un concetto del tutto psicanalitico. Con la (apparentemente problematica) differenza tra un “vero Sé” e un “falso Sé”, Winnicott ci parla sostanzialmente di desiderio: laddove la persona dotata di un vero Sé è in sintonia con il proprio desiderio, la persona in possesso di un falso Sé non è consapevole del proprio desiderio e agisce per soddisfare le richieste che gli provengono dall’esterno. Questa è la ragione per cui falso Sé e narcisismo vanno così spesso a braccetto (come ad esempio spiega Alexander Lowen in Il narcisismo, 1983).

I concetti di vero e falso, dunque, non vanno qui intesi come assoluti metafisici, ma come dati di realtà di uno specifico soggetto. Fatta questa doverosa premessa posso finalmente arrivare al punto centrale del discorso, e cioè alla constatazione che i social media non solo favoriscono, ma moltiplicano e accelerano la produzione di falsi Sé, che si aggregano in false comunità, le quali danno vita a loro volta a una falsa società, producendo come risultato un’immagine del mondo che non corrisponde affatto alla realtà.

Come in ogni gabbia di Skinner, i social network premiano certi tipi di comportamento rispetto ad altri: se il ratto tira la leva di destra riceve una ricompensa, se tira quella di sinistra riceve una punizione. Per forza di cose il ratto sarà portato a tirare sempre la leva di destra per ottenere la ricompensa ed evitare la punizione. Quando su Facebook condivido un contenuto, vengo “premiato” dal numero di like che ricevo. Certi tipi di contenuto producono molti like, altri vengono ignorati. Come il ratto nella gabbia di Skinner, sarò portato a condividere solo contenuti che generano like, cioè che mi portano la ricompensa dell’attenzione sociale invece che la punizione derivante dall’essere ignorato. Gli algoritmi di Facebook accelerano e potenziano questo meccanismo: più like ricevo ai miei post e più essi saranno visibili, generando sempre più like e producendo un circolo virtuoso di popolarità. Post poco popolari, al contrario, mi sprofonderanno rapidamente nell’oblio.

Allo stesso modo del bambino nella famiglia disfunzionale descritto da Miller, quindi, sarò portato a modificare il mio comportamento (cioè a scegliere i post che condivido) per adeguarmi all’aspettativa della rete sociale. Questo processo, che inizia come consapevole (Miller spiega come nelle fasi iniziali del suo sviluppo il bambino sappia di star facendo quello che il genitore vuole e non quello che desidera veramente), con il passare del tempo diventa inconscio, fino al punto in cui distinguere tra desiderio individuale e richiesta esterna è impossibile. Per questo le persone affette da falso Sé hanno spesso l’impressione che dietro la facciata non ci sia “niente”, perché hanno perso memoria del proprio desiderio, che si è atrofizzato.

Queste dinamiche capitano anche nel mondo esterno ai social media, naturalmente, ma vengono accelerate al punto della distopia da tecnologie che sfruttano il condizionamento comportamentale per premiare quelle dinamiche che la tecnologia stessa considera virtuose. E poiché come sostiene O’Neil la tecnologia non ha modo di distinguere ciò che è giusto da ciò che è sbagliato (l’essere qualcosa), “giusto” è ciò che riceve il maggior numero di like (il comportarsi in un determinato modo). Ne consegue che condividere post che ottengono un gran numero di like non è solo utile, ma è anche “giusto”. 

Ad aggravare la situazione, poi, c’è il fatto che il problema non è solo individuale. In un mondo in cui il consenso viene costruito prima di tutto sui social media (vedi i casi delle presidenziali americane del 2016, di Brexit o, in Italia, di Salvini e del Movimento Cinque Stelle) anche la politica è soggetta alle stesse dinamiche, così che fare ciò che è “giusto” viene sostituito da fare ciò che genera un guadagno immediato: il caso della “Bestia” di Salvini ha dimostrato come sia possibile ottenere un potere politico considerevole semplicemente dando alle persone di volta in volta quello che vogliono sentire, condividendo i contenuti che generano il maggior numero di like. Un atteggiamento così cinico da parte della politica sarebbe stato considerato inaccettabile ancora pochi anni fa, ma appare come naturale nel momento in cui nella nostra vita quotidiana “utile” e “giusto” vengono a coincidere in ogni nostra interazione sociale, nel momento cioè in cui l’appiattimento sul comportamento è considerato la normalità.

Il punto però è che non è nemmeno lontanamente normale: è una vera e propria psicosi di massa. Molti falsi Sé generano una falsa società manipolata dalle meccaniche tecnologicamente accelerate di una falsa politica. Il risultato è un mondo nel quale è diventato impossibile credere, che è evidentemente “falso”, un’apparenza dietro la quale abbiamo il sospetto terribile che non si nasconda niente.

Questa dinamica spiega in una certa misura anche le teorie del complotto di cui la nostra società è sempre più preda, perché la prima condizione per cui si affermi e diffonda una teoria del complotto è la percezione diffusa che il mondo in cui viviamo sia falso o “costruito”, per utilizzare una categoria gnostica, da qualche entità demiurgica che ci manipola senza che noi ne siamo consapevoli. E non è appunto vero che negli ambienti online, cioè negli ambienti in cui costruiamo la quasi totalità delle nostre idee, veniamo manipolati da entità impersonali che costruiscono per noi mondi fittizi? QAnon o il Pizzagate possono essere deliri paranoidi degni di un fantasy pulp, ma a ben guardare sono anche tentativi di spiegare quella sensazione che qualcosa non sia giusto, quell’impressione di irrealtà, di falsità che tutti percepiamo più o meno vividamente.

In altre parole Parakilas ha ragione: un discorso sulle tecnologie, al punto in cui siamo, è quasi impossibile, perché le tecnologie hanno già hackerato il nostro modo di guardare al mondo. Siamo così tanto abituati a fare la cosa “utile” confondendola con quella “giusta” che stiamo perdendo la capacità di distinguere tra le due.

Jaron Lanier ha spiegato molto bene questo procedimento in un libro del 2010, quando l’idea più diffusa era ancora che i social media avrebbero liberato la creatività e prodotto ricchezza per tutti. In Tu non sei un gadget, Lanier sostiene che l’unico modo per cui un computer potrà mai superare veramente il test di Turing è che gli esseri umani abbassino le proprie aspettative fino al punto da lasciarsi ingannare. Nel momento in cui ci convinciamo che un essere umano è un meccanismo pre-programmato che allo stesso stimolo fornirà sempre la stessa risposta, allora siamo pronti a permettere ai computer di superare il test. Il risultato sarà lo stesso ma il movimento è opposto rispetto a quello immaginato da Turing nel 1950: non è la macchina a diventare un po’ più simile a noi, ma noi a diventare più simili alla macchina.

Questo processo è iniziato così tanto tempo fa che, oggi, è molto difficile invertire la rotta. Ma è anche necessario e, come spiegano gli intervistati alla fine di The Social Dilemma, va fatto pensando una tecnologia diversa che faccia un uso umano, appunto, degli esseri umani. È necessario chiedere di più alle tecnologie, spingerle oltre i limiti imposti da un gruppo di ricchi con un’idea tetra di ciò che un essere umano può essere. Altrimenti ci troveremo come gli umani di Matrix, terreno di estrazione di una razza aliena e senza scrupoli, con la differenza che quegli alieni siamo noi stessi, impegnati a succhiare il nostro stesso sangue fino all’autoannientamento.


gianluca didino è nato nel 1985 in Piemonte. I suoi articoli sono stati pubblicati su IL, Studio, Nuovi Argomenti. Ha curato la rubrica VALIS sul Mucchio Selvaggio e attualmente collabora con minima&moralia e Doppiozero.

0 comments on “Nella gabbia di Skinner: social media, pessimismo e falso Sé

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *