Con l’evoluzione delle AI, la facilità e indistinguibilità dei deepfake potrebbe scoraggiare la diffusione non consensuale di materiale intimo, perché le immagini sarebbero false fino a prova contraria.
In copertina, Cut-a-Way, di Allen Jones (1976)
di Marco Viola (con Cristina Voto)
Ci risiamo: mentre scrivo queste parole, il web impazza d’indignazione a causa dell’ennesima app di ‘nudificazione’. È probabile – nonché auspicabile – che da qui a quando questo pezzo sarà pubblicato, l’azienda dietro alla app (per la precisione un bot su Telegram) sarà fatta sparire. Tuttavia, fino ad allora agli utenti basterà inserire la foto di una donna poco vestita per vedersi restituire una simulazione della stessa immagine, stavolta totalmente nuda (e per questa ragione mi rifiuto, per principio, di menzionarla esplicitamente). Io dico “donna”, ma purtroppo in molti casi si dovrebbe dire “ragazzine”, visto che la cronaca documenta come la app spopoli tra gli adolescenti. In un caso salito alla ribalta, due ragazzi quattordicenni creano così un nudo fake di una loro coetanea, con intenti a loro dire scherzosi; salvo che lo “scherzo” non è stato affatto percepito come tale dalla vittima, che infatti ha sporto denuncia. In questo caso il GIP ha archiviato il caso (complice forse il documentato pentimento dei ragazzi, stando alla cronaca); una decisione che certo non spetta a me giudicare, ma che temo possa venire letta, da più parti, come uno sdoganamento della pratica della diffusione non consensuale di contenuti intimi generati tramite tecnologie di deepfake – una casistica che in effetti non è coperta dalla legge italiana attualmente in vigore, nota come Codice rosso.
Ma facciamo un passo indietro.
Già prima che ci si mettesse l’intelligenza artificiale, la diffusione non consensuale di contenuti intimi era già un problema terrificante. Uso questa lunga parafrasi – diffusione non consensuale di contenuti intimi – anziché il più noto termine ‘revenge porn’ perché chi studia il fenomeno è ormai concorde sul fatto che l’etichetta è inesatta e controproducente. Inesatta perché spesso chi diffonde materiale senza consenso lo fa per le ragioni più disparate che nulla hanno a che fare con la vendetta (nel caso di cui sopra, i ragazzi pensavano di scherzare; come pure in molti altri casi documentati tra gli adolescenti olandesi). Controproducente perché invita al victim blaming (“ah, sta diffondendo tuoi materiali intimi? E tu, che cosa gli avevi fatto?”).
Essere vittima di diffusione non consensuale di contenuti intimi può provocare conseguenze molto gravi. Ce lo ricorda purtroppo il caso di Tiziana Cantone, che, probabilmente in reazione alla circolazione virale di alcuni materiali intimi che la vedevano protagonista, avrebbe finito per suicidarsi. Ma anche in casi meno estremi, una ricerca sociologica multi-paese ci dice come diverse vittime esperiscono un senso permanente di minaccia esistenziale; dopotutto, una volta che qualcosa approda alla rete, è molto difficile farlo sparire. La stessa ricerca ci testimonia le dimensioni enormi del fenomeno: su 6109 soggetti di ambo i generi di età compresa trai 16 e i 64 anni, circa una persona su tre ha riportato che i propri materiali intimi sono stati sottratti e/o diffusi, e/o è stata minacciata che venissero diffusi.
Cosa motiva questo fenomeno? Dare una risposta univoca è difficile (chi compie questi abusi difficilmente lo racconta); e forse è anche sbagliato, visto che le motivazioni vanno dai tentati ‘scherzi’ agli scenari di ‘vendetta’. Ad alimentare molti di questi scenari contribuiscono certe norme di mascolinità egemone, che trovano peraltro in una piattaforma come Telegram un fertile terreno di coltura, come ci spiegano le sociologhe Lucia Bainotti e Silvia Semenzin nel libro Donne tutte puttane (il che non significa che non vi siano donne anche tra i carnefici o uomini tra le vittime).
-->
Mi pare ragionevole pensare che coloro che divulgano o fruiscono di contenuti intimi illeciti non vogliono semplicemente fruire di contenuti pornografici qualsiasi: la rete straripa di pornografia accessibile gratuitamente e a portata di click senza commettere illeciti. Il punto, dunque, dev’essere un altro: non tanto fruire di un contenuto audiovisivo, quanto del senso di intimità che questo sprigiona. In generale, ad eccitare non sono soltanto (e forse: non sono tanto) le immagini, quanto le persone e le situazioni con cui le immagini ci mettono in contatto; in gergo filosofico: il punto non sono le proprietà estetiche, quanto piuttosto quelle semantiche. D’altro canto, se l’eccitazione passasse puramente dagli audiovisivi, come spiegarsi il successo di OnlyFans?
Ma è proprio questa dipendenza dell’eccitazione dalle proprietà semantiche delle immagini che potrebbe far sì che le tecnologie di deepfake diventino cavalli di Troia per coloro che divulgano contenuti intimi. Gli argomenti e i dettagli di questa scommessa sono sviscerati a fondo da questo articolo recentemente pubblicato sulla rivista di filosofia Synthese assieme alla collega Cristina Voto (Università di Torino). Riassumendo al massimo, il succo è che il potenziale emotigeno (nonché erotigeno) dei deepfake deriva in modo parassitario dalla fiducia e intimità che suscitano le immagini (e video) di origine fotografica rispetto a quelle come i disegni; ma la presenza di deepfake, ossia “disegni che si travestono da foto”, finirà per compromettere la nostra confidenza (emotiva ed epistemica) verso tutto ciò che ha l’aspetto di una foto.
È una predizione fin troppo ottimistica? Forse. Ma vi sono alcune ragioni per pensare che non sia del tutto fuori strada. Rimandando all’articolo per chi volesse affrontare la discussione per esteso, mi si permetta qui di dare un assaggio del nostro ragionamento, che tutto sommato è piuttosto semplice, e si può ridurre a due passaggi:
Molto spesso, a chi fruisce di contenuti intimi (leciti o meno) interessa non tanto l’immagine in quanto agglomerato di pixel, quanto piuttosto il potere dell’immagine di stabilire un qualche legame con la persona che vi è raffigurata. Da questo punto di vista, fotografie (e video) permettono un’esperienza visuale diretta e immediata, e sono perciò dette trasparenti nel gergo filosofico. Infatti, a differenza di quanto avviene per esempio con un disegno, guardare la foto di una persona cara restituisce lo stesso effetto di realtà e di intimità del guardare la persona attraverso una finestra – sia pure una finestra che si apre su un altrove spazio-temporale. Se i deepfake di carattere pornografico sono in un certo senso “disegni che si travestono da fotografie”, una volta svelato l’inganno è svelato, risulterà evidente come non rimandino a nessuna persona reale: casomai certi deepfake sono costruiti a partire da immagini di persone reali, che fungono da ispirazione e modello per disegnare altre persone. E per quanto le ragioni per cui la gente consuma contenuti pornografici siano le più variegate, è ragionevole presumere che questo senso di intimità costituisca una parte importante della ricetta di un contenuto pornografico di successo. Lo spiega bene la content creator Laura Lux con le seguenti parole (anzi, cinguettii, visto che siamo su Twitter):
people do not subscribe to my onlyfans because they want to see a random naked woman, they subscribe to my onlyfans because they want to see ME naked specifically based on a parasocial connection formed by following me on other social media platforms. [Quindi] titties belonging to a realistic AI generated character” will never be as interesting as “titties belonging to a girl i subscribe to on youtube” no matter how ‘perfect’ or conventionally attractive the AI image is.
C’è ragione di pensare che chi sceglie di divulgare materiale non consensuale lo faccia anche (e soprattutto?) per il piacere nefasto dell’abuso di potere; il potere di violare un’intimità in cui nessuno li ha invitati.
Ma questo ‘potere magico’ di fotografie e video non è scolpito nella pietra. Se, come sembra ormai inevitabile, i deepfake si moltiplicheranno e diventeranno indistinguibili dalle foto e video reali, allora tra qualche anno ci troveremo in uno scenario à la “Pierino e il lupo” in cui smetteremo di fidarci di tutte le immagini. “Smetteremo” richiede ovviamente varie qualificazioni, così come “fidarci”: innanzitutto perché è verosimile che questa sfiducia non sarà equamente distribuita. Più plausibilmente, interesserà diversamente individui diversi, in base a fattori demografici e di alfabetizzazione, e chissà quante altre incognite.Pensateci: se vi dedicassero una struggente poesia d’amore, sareste ancora altrettanto commossi scoprendo che è stata generata solo da ChatGPT, senza alcun intervento se non la richiesta di scrivere una poesia d’amore? E se non ne foste certi, ma aveste ragione di dubitarlo?
Giacché realizzare convincenti deepfake a carattere pornografico è diventato questione di pochi click, è verosimile che – magari dopo uno sbigottimento iniziale – non daremo più troppo peso alle immagini intime, false o reali che siano: dopotutto, non potendo distinguere le une dalle altre, potremo essere tentati di presumere che siano false fino a prova contraria. (Corollario: fare sexting con chi non vi conosce di persona sarà sempre più faticoso, perché avrete l’onere di dimostrare che siete siate voi quelli ritratti in foto!)
Ma così come gli insegnanti di tutto il mondo si stanno interrogando su come scoprire se i compiti che assegnano siano svolti dai loro studenti o da un’IA, rivelando così un certo scetticismo, uno scetticismo analogo potrebbe derivare dall’esposizione continua a immagini prodotte con intelligenze artificiali generative. Forse con qualche difficoltà in più, visto che siamo abituati da tutta la vita (e forse, da tempi ancora più antichi, filogenetici) a credere a ciò che ci suggeriscono gli occhi, anche se ciò contraddice quel che sappiamo: pensate ai trompe l’oeil, dipinti che sembrano tridimensionali. Ma alla fine, se davvero prendesse piede, questo scetticismo crescente nelle credenziali testimoniali delle immagini, oltre a comportare una serie di problemi su cui schiere di epistemologi di professione si stanno seriamente interrogando, potrebbe guastare la festa a chi questo potere testimoniale delle immagini lo impugna come un’arma per compiere abusi.
Non sto ovviamente suggerendo che dovremo liberalizzare e depenalizzare la generazione e diffusione di contenuti intimi deepfake, in nome di una logica del tipo “tanto peggio, tanto meglio”. Credo anzi che la legge dovrebbe fare il possibile per arginare il fenomeno, visto che l’affermarsi di questo scetticismo terapeutico potrebbe richiedere anni, anni in cui le persone soffrirebbero; e magari non compiersi mai del tutto. A tal proposito, è bene ricordare che a compiere questi abusi non sono solo una manciata di ex fidanzati frustrati in un desiderio di ingiustificabile ‘vendetta’, ma spesso e volentieri anche persone poco consapevoli delle possibili conseguenze catastrofiche dei loro gesti (come mostra ad esempio una ricerca sugli adolescenti olandesi).
Tuttavia, per quanto possano provarci, difficilmente gli strumenti giuridici potranno arginare del tutto l’uso di tecnologie come quella succitata. D’altro canto, già nel 2019 una app molto simile, DeepNude, era stata pubblicata, ricoperta di critiche e poi rapidamente ritirata dal commercio; e tuttavia, il codice gira ancora in rete (l’ho già detto, no? Quando qualcosa arriva in rete, è dura che poi scompaia). E d’altro canto, in Italia ChatGPT è stato interdetto dal garante della privacy – ma quanti lo usano tramite una VPN?
In aggiunta alla leva giuridica, dunque, mi pare auspicabile mettere in campo una serie di interventi educativi. Suonerà banale, ma meglio correre il rischio di non essere originali che quello opposto di tacere una così ovvia che finisce per passare inosservata: serve un po’ di educazione sentimentale. Forse i maschietti delle future generazioni potrebbero passarsela meglio se non fossero educati a sfoggiare le proprie conquiste amorose con lo orgoglio con cui da giovane mi bullavo di aver completato il PokéDex; e le ragazze forse vivrebbero una sessualità più serena se non venissero pensate appunto alla stregua di Pokémon da catturare.
Ma non guasterebbe neanche un po’ di educazione digitale, che insegni come molte immagini, al giorno d’oggi, pur sembrando fotografiche, potrebbero non esserlo. Si potrebbero insomma creare immagini deepfake in contesti protetti perché fungano da vaccini contro una creduloneria fuori tempo massimo. E per mettere a nudo la fragilità testimoniale delle immagini non serve per forza mettere a nudo le persone; dopotutto di pornografia ce n’è già tanta in giro. Magari si possono trovare esempi più creativi, come ad esempio quello di Claudio Riccio che ha “disegnato” con MidJourney una sorta di fotoromanzo dell’ipotetico funerale di Silvio Berlusconi (che mentre scrivo è invece in lenta ripresa al San Raffaele). Tutto sommato, al pensiero che le immagini si svuotino del peso che siamo abituati a dare loro, io forse mi sento più leggero. E voi?
0 comments on “Da problema i “deepfake” diventeranno soluzione?”