Per delineare un’etica delle intelligenze artificiali è necessario conoscere il lavoro di Kate Crawford e quello di Luciano Floridi: il confronto tra le loro opere ci offre un’utile panoramica su criticità e possibili soluzioni.
in copertina e nel testo: un’elaborazione digitale di Francesco D’Isa, Midjourney, 2022
Questo testo è un estratto da La Rivista il Mulino N.3 , ringraziamo l’editore per la gentile concessione.
di Tiziano Bonini
Tra la fine del 2021 e l’inizio del 2022 sono usciti due libri molto importanti sull’intelligenza artificiale (IA). Conviene leggerli insieme, come due gemelli eterozigoti. Il primo è quello di Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA (versione italiana dell’originale inglese Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021); il secondo è quello di Luciano Floridi, Etica dell’intelligenza artificiale. Il primo rappresenta la pars destruens del discorso pubblico sull’IA, il secondo, invece, la pars costruens.
Il libro di Crawford ha il merito di rendere estremamente visibile l’infrastruttura planetaria che si nasconde dietro lo sviluppo e la diffusione di sistemi di IA e di rappresentarci questa infrastruttura come la versione contemporanea di precedenti forme di industria estrattiva. La creazione di sistemi di IA è strettamente legata allo sfruttamento delle risorse energetiche e minerarie del pianeta, di manodopera a basso costo e di dati su amplissima scala (p. 22).
Crawford ci mostra come l’intelligenza artificiale «nasce dai laghi salati della Bolivia e dalle miniere del Congo, ed è costruita a partire da set di dati etichettati da crowdworkers che cercano di classificare azioni, emozioni e identità umane. Viene utilizzata per guidare droni nello Yemen, per guidare la politica migratoria degli Stati Uniti e per definire, in tutto il mondo, le scale di valutazione del valore umano e del rischio» (p. 250).
Il libro è diviso in sei capitoli, in cui Crawford prende in esame gli impatti ecologici dell’IA (Terra), le conseguenze dell’IA sul lavoro (Lavoro), il modo predatorio in cui sono stati raccolti i dati su cui i sistemi di IA sono stati addestrati (Dati), i modi in cui si è affermata la logica classificatoria che sta dietro l’IA (Classificazione), l’illusione di aziende e agenzie militari di rendere le emozioni calcolabili e prevedibili (Emozioni), il ruolo dello Stato nello sviluppo dell’IA (Stato) e una riflessione finale sui tipi di potere a cui è funzionale l’IA.
In ognuno di questi sei capitoli, Crawford assesta una critica ben documentata alla retorica tecno-ottimista, che racconta l’IA come la soluzione a tanti problemi sociali e ambientali. Crawford parte dalla materialità dell’IA, dalla sua necessità di suolo ed energia, ne espone il pericolo per l’ambiente e per il lavoro umano, ne ricostruisce la storia, facendo emergere la natura «coloniale» del modello estrattivista che ha permesso l’accumulo dei dati sui quali l’IA viene allenata e ne evidenzia la capacità di sorveglianza e controllo sociale da parte di Stati e aziende. In questa ricostruzione accurata, l’IA non produce niente di buono e non è intesa come una tecnologia neutrale, che può essere usata in modi positivi o negativi a seconda di chi la imbraccia. Finora, ci dice Crawford, l’IA ha avuto solo un impatto negativo sull’ambiente naturale e sulla società, perché rappresenta il naturale proseguimento di un modello di sviluppo – quello del capitalismo industriale – che è di base estrattivo e predatorio.
Al di là di questa posizione che qualcuno potrebbe definire «radicale», il libro di Crawford ha, tra gli altri meriti, quello di descriverci l’IA non come una semplice tecnologia o un insieme di innovazioni tecnologiche, ma come un apparato socio-tecnico, o socio-materiale, animato da una complessa rete di attori, istituzioni e tecnologie. L’IA per Crawford è «un’idea, un’infrastruttura, un’industria, una forma di esercizio del potere; è anche una manifestazione di un capitale altamente organizzato, sostenuto da vasti sistemi di estrazione e logistica, con catene di approvvigionamento che avviluppano l’intero pianeta» (p. 25).
-->Considerare l’IA non come una tecnologia ma come una complessa rete materiale composta di risorse naturali, combustibili, lavoro umano, infrastrutture, logistica, storie e classificazioni ci permette di rendere visibili tutti gli attori che orbitano attorno ad essa, e comprendere che, come tutte le tecnologie, anche i sistemi di IA sono il frutto di ampie strutture sociali e politiche. Se l’IA è «un insieme di pratiche tecniche e sociali, istituzioni e infrastrutture, politica e cultura» (p. 16), allora il suo impatto non dipende dalla tecnologia in sé, ma dalla sua costruzione sociale, cioè dal modo in cui una data società, in base ai propri valori, si approprierà di questa tecnologia.
Il problema, per Crawford, è che l’IA non è una «nuova» tecnologia che dovremmo essere in grado di governare in futuro per trarne dei benefici: l’IA ha già una lunga storia alle spalle. L’IA che oggi viene impiegata in diversi settori della società, della politica e dell’economia è il frutto di un capitalismo coloniale e predatorio. I sistemi di IA sono quindi espressioni di potere che discendono da forze economiche e politiche più ampie, creati per aumentare i profitti e centralizzare il controllo nelle mani di coloro che li detengono.
L’IA non è una tecnologia intrinsecamente buona o cattiva, non è questa la domanda da porci. Bisogna chiedersi al servizio di chi funziona, quali poteri agevola.
In sostanza, il libro di Crawford si presenta come un atlante di economia politica critica dell’IA, arricchito da un approccio da studiosa di STS (Science & Technology Studies), cioè da studiosa che concepisce il rapporto tra tecnologia e società come mutually shaped, ossia costruito socialmente.
Teniamo a mente la questione del potere posta da Crawford (chi governa l’IA, per chi funziona l’IA) e passiamo a esplorare il libro di Luciano Floridi, che alla questione del potere – politico, istituzionale o economico – dedica invece pochissimo spazio. Il libro di Floridi è altrettanto ambizioso, e altrettanto informato da anni di ricerca del suo gruppo di lavoro, nonché dall’analisi di una mole notevole di letteratura sull’IA.
Floridi, a differenza di Crawford, considera l’IA non come un «apparato socio-tecnico», ma come una serie di innovazioni tecnologiche. Il libro è molto ben strutturato e ambisce a essere divulgativo, nonostante alcuni capitoli più tecnici. Parte da una breve ricostruzione storica dei processi di digitalizzazione della società, che però di storico ha molto poco, e riproduce una visione lineare di questo processo: al progressivo aumento della potenza di calcolo, fa corrispondere un progressivo stato di digitalizzazione della società, fino ad arrivare alla commistione tra mondo offline e online, che lui notoriamente chiama «onlife». Poi passa a descrivere le diverse ondate di dibattito pubblico che hanno caratterizzato l’IA, fino a quella presente, e mette in evidenza le alterne fortune che la ricerca sull’IA ha avuto dalle sue origini fino a oggi. Infine, si lancia in previsioni sul futuro dell’IA, legando questo futuro a questioni etiche, che sono il fulcro della seconda parte del libro e anche quella in cui la ricerca di Floridi è più solida. Di fatto, il libro si pone domande importantissime relative alla possibilità di far funzionare l’IA in maniera etica. Il valore del libro non sta nelle domande che pone, ma nelle risposte che prova a dare.
All’inizio della seconda parte del libro (capitolo 4), Floridi analizza in maniera comparativa tutti i principi etici sviluppati finora da diversi enti, istituzioni e governi, per l’adozione di una IA socialmente vantaggiosa e propone una sintesi di questi principi, riducendoli a cinque macro-principi fondamentali, i primi quattro dei quali sono comuni a quelli della bioetica: beneficenza, non maleficenza, autonomia e giustizia. A questi quattro principi della bioetica, Floridi aggiunge il principio dell’esplicabilità: l’IA, per essere definita «etica», deve essere intelligibile e responsabile (accountability), il suo funzionamento deve cioè essere «spiegabile».
Questa prima mappatura dei principi di base ai quali si dovrebbe ispirare qualsiasi implementazione di IA pone le fondamenta del discorso successivo. Floridi è consapevole delle conseguenze non etiche (discriminatorie) dell’impiego di algoritmi di IA e ne fornisce un’ampia descrizione nel capitolo 7. Qui è molto chiaro nel sostenere che l’IA, anche quando viene impiegata con buone intenzioni, può finire per riprodurre o amplificare discriminazioni già presenti nella società, come ormai molti studi e libri hanno dimostrato (S. Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York University Press, 2018; V. Eubanks, Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor, St. Martin’s Publishing Group, 2018; C. O’Neil, Armi di distruzione matematica. Come i big data aumentano la disuguaglianza e minacciano la democrazia, trad. it. Bompiani, 2017).
Nel capitolo 8, invece, analizza i possibili usi «impropri» e «illeciti» dell’IA. Tra le cattive pratiche inserisce i modi in cui l’IA può essere impiegata per generare profitti illeciti tramite azioni criminali come furti, frodi informatiche, reati contro la persona (comprese le molestie e il razzismo perpetrati da profili di bot sui social media), reati finanziari.
Dopo aver passato in rassegna i modi in cui l’IA può essere messa al servizio di atti criminali, Floridi passa all’analisi delle buone pratiche, che chiama AI4SG (AI for Social Good, «IA per il bene sociale») e identifica sette fattori etici essenziali per le future iniziative di AI4SG.
Per AI4SG Floridi intende «il design, lo sviluppo, l’implementazione di sistemi di IA in modo da (i) prevenire, mitigare, risolvere i problemi che incidono negativamente sulla vita umana e/o sul benessere del mondo naturale e/o (ii) consentire sviluppi preferibili dal punto di vista sociale e/o sostenibili dal punto di vista ambientale» (p. 227).
A questo proposito, Floridi fornisce sette iniziative di successo in cui l’IA è stata già implementata per il bene sociale. Tutte queste iniziative rispondono ai cinque principi etici che dovrebbero guidare l’IA, individuati nel capitolo 4.
Qui emerge finalmente uno dei tratti distintivi di questo libro, cioè la volontà di non fermarsi solo alla critica e agli aspetti problematici dell’IA (capitoli 7 e 8), ma arrivare a definire dei principi etici per il suo sfruttamento positivo.

A partire dal capitolo 9 fino alla fine, Floridi cerca razionalmente di individuare principi e criteri che dovrebbero informare il design e la governance degli algoritmi per perseguire apertamente «il bene sociale». Il fine ultimo di questo libro è quello di giungere a una definizione di un’etica dell’intelligenza artificiale (che Floridi chiama «etica del digitale») capace di individuare la maniera «migliore» e le azioni più «buone» per ottenere il massimo dei benefici dall’intelligenza artificiale e, in ultima istanza, «avere una società migliore». Questa etica permetterebbe, secondo Floridi, di assimilare i potenziali benefici dell’IA, mitigandone i danni e i rischi.
A differenza del libro di Crawford, che rappresenta una profonda critica all’ascesa dell’intelligenza artificiale nella società, il libro di Floridi è mosso, potremmo dire, da una spinta «meta-etica»: è mosso, cioè, dalla convinzione profonda che sia «eticamente» necessario stabilire un’«etica» del governo dell’intelligenza artificiale. Mentre Crawford si ferma alla critica dell’IA, Floridi va molto oltre, ponendosi l’obiettivo di costruire un’impalcatura etica che ci permetta di sfruttare «correttamente» o, meglio, «eticamente» il potenziale dell’IA. Floridi, in sostanza, crede che sia possibile mettere l’IA al servizio della società, crede nell’esistenza di una IA «buona» e la contrappone a una IA «cattiva», cosa alla quale Crawford non crede affatto.
Floridi arriva a stilare una lunga lista di raccomandazioni che permettono di addomesticare l’IA mettendola al servizio dell’umanità. Un’etica del digitale deve non solo servire a costruire una consapevolezza critica, ma «segnalare i problemi etici rilevanti nell’applicazione dell’IA, impegnarsi con le parti interessate da tali problemi etici e, soprattutto, disegnare e implementare soluzioni condivisibili» (p. 143). Qualsiasi esercizio etico, sostiene ancora l’autore, «che non riesca alla fine a fornire e attuare alcune raccomandazioni accettabili è soltanto un timido preambolo» (p. 143). «L’etica deve sedersi al tavolo delle scelte politiche e delle procedure decisionali fin dal primo giorno» (p. 144).
Mosso da questo proposito, nel capitolo 11 arriva quindi a formulare venti raccomandazioni etiche per una «società della buona IA» (p. 287). A queste raccomandazioni se ne aggiungono altre per mitigare l’impatto ambientale dell’IA (capitolo 12). Anche se in maniera molto meno dettagliata e profonda di Crawford, anche Floridi è consapevole dell’impatto dell’IA sul cambiamento climatico. Ma per Floridi, questo impatto non è solo negativo, è anche ambivalente. Da un lato mette in evidenza come l’IA sia utile per valutare enormi volumi di dati ambientali e studiare le tendenze climatiche del futuro: l’IA, ci dice, è già stata impiegata per prevedere le variazioni della temperatura media globale, o anche per calcolare come rendere più efficiente il consumo di energia da parte dell’industria. Dall’altro, evidenzia anche l’enorme quantità di energia di cui si alimentano i sistemi di IA. Il paradosso è che l’impronta ecologica generata dall’IA per aiutarci a combattere il cambiamento climatico contribuisce ad accelerare questo processo. Per superare questo paradosso, Floridi propone tredici raccomandazioni per un impiego «ecologico» dell’IA contro il cambiamento climatico.
Come valutare, in conclusione, il libro di Floridi? Sarebbe scorretto situare Floridi tra i tecno-ottimisti. Floridi non è un ingenuo «soluzionista tecnologico» che crede nella capacità della tecnologia di risolvere qualsiasi problema sociale. Infatti, rileva che «ci sono molte circostanze in cui l’IA non è il modo più efficace per affrontare un determinato problema sociale» (p. 225). In questo modo prende le distanze da facili accuse di «determinismo tecnologico». Nel capitolo 10 infatti riconosce l’inutilità della classica diatriba tra apocalittici e integrati (che lui chiama, rispettivamente, «atei dell’IA» e «adepti della singolarità») e riconosce anche, come aveva fatto Crawford, che l’IA non è «intelligente» e difficilmente riuscirà a superare l’umanità nella capacità di «pensare», almeno nel breve-medio termine. È più corretto, infatti, comprendere l’IA come una tecnologia capace di risolvere problemi, portare a termine dei compiti, fare le cose meglio di come le facciamo noi, ma «senza pensare, limitandosi a elaborare una grande quantità di dati in modo sempre più efficace» (p. 275).
L’IA è come una lavastoviglie, ci dice Floridi: lava i piatti meglio di noi, ma non è più intelligente di noi. Da questo esempio, Floridi, un po’ ingenuamente, arriva a sostenere che «qualsiasi visione apocalittica dell’IA può essere ignorata» e che il rischio reale dell’IA sta nel fatto che «possiamo utilizzare male le nostre tecnologie digitali, a danno di una grande percentuale dell’umanità e dell’intero pianeta» (p. 276). In questo passaggio, l’autore cade temporaneamente nella trappola della nota posizione retorica per cui la tecnologia non sarebbe «né cattiva né buona, dipende da come la usiamo».
È su questa linea di faglia che si separano i libri di Crawford e Floridi. La prima mostra le relazioni di potere che finora hanno plasmato gli usi attuali dell’IA, il secondo sembra valutare l’IA da un punto di vista puramente razionale ed etico, inserendolo in uno spazio vuoto, come se non esistessero la storia, l’economia, la politica e la cultura. Nelle 384 pagine del libro di Floridi non compare mai la parola «capitalismo» (mentre nel libro di Crawford compare 21 volte) e solo tre volte compare la parola «potere» inteso come «potere economico o politico» (nel libro di Crawford compare 121 volte).
Il libro di Floridi rappresenta un tentativo approfondito, documentato e innovativo di stabilire dei confini etici per l’uso dell’IA e può sicuramente contribuire a un impiego più attento e meno rischioso di queste tecnologie, utile per i decisori politici (a cui principalmente si rivolge) e utile al dibattito pubblico, perché ci mostra che esistono anche notevoli benefici nell’applicazione dell’IA. Però ha il limite di «dimenticarsi» del contesto socio-politico in cui finora l’IA è cresciuta. Questi limiti emergono sia nelle conclusioni finali del libro, sia nelle conclusioni al capitolo 2 (p. 61), quando l’autore si fa una domanda che è vitale: nella relazione di coppia tra IA e umanità, chi si adatterà a chi? Floridi è consapevole del rischio che corre l’umanità, cioè di doversi adattare a una relazione le cui regole siano imposte dall’IA. Saremo noi a doverci adattare per rendere il nostro mondo «calcolabile» dall’IA, o sarà l’IA che dovrà adattarsi alle nostre esigenze? Floridi offre una visione futura «etica» in cui l’umanità, attraverso il design «etico» della tecnologia, sarà capace di plasmare il futuro facendo lavorare l’IA a proprio vantaggio.
Alla fine del libro sostiene che il problema siamo noi, non la tecnologia, cioè dovremo rendere l’IA adatta al nostro ambiente e non viceversa. L’IA, ci dice ancora Floridi, dovrebbe essere usata per trattare le persone come fini e non come semplici mezzi. Tutto molto condivisibile, certo, ma dimentica di spiegarci come mai, troppo spesso, le persone vengono trattate come mezzi e non come fini, e chi sono gli attori che, storicamente, ci hanno ridotto a mezzi per i propri fini. Spesso, ciò che è etico non è così facilmente realizzabile, perché di mezzo ci si mettono attori molto potenti che non hanno a cuore l’etica, ma il profitto per il profitto. La logica dell’attuale capitalismo di piattaforma (o di «sorveglianza», come lo chiama Zuboff) mira a trasformare qualsiasi cosa in un asset finanziario. Lo studioso di media Pieter Verdegem (Westminster University) sostiene che «il capitalismo dell’IA è caratterizzato dalla mercificazione dei dati, dall’estrazione dei dati e dalla concentrazione di talenti e capacità di calcolo nelle mani di poche aziende. Questo modello è alla base dell’inarrestabile spinta alla crescita di Big Tech, che porta alla monopolizzazione secondo il principio chi vince prende tutto» (P. Verdegem, Dismantling AI capitalism: The commons as an alternative to the power concentration of Big Tech, «AI & Society», 2022, p. 1, T.d.A.).
Floridi non sembra essere preoccupato da questo e ripone grande fiducia nella capacità dell’Ue di guidare uno sviluppo tecnologico etico e regolamentato, all’interno però di un quadro moderatamente liberista che non mette mai in discussione.
Ecco perché i due libri presentati qui sono gemelli: a un’etica dell’IA manca un’economia politica dell’IA, che è quella che fornisce Crawford. Allo stesso tempo, all’autrice americana manca una riflessione sulle possibilità di usare eticamente l’IA e porre delle regole concrete al suo utilizzo.
La «terza via», tra queste due opposte concezioni dell’IA, potrebbe essere quella rappresentata da ricercatori come Jim Thatcher e Craig Dalton, due geografi che hanno pubblicato Data Power. Radical Geographies of Control and Resistance. Questi due autori sostengono che l’uso dell’IA all’interno di «sistemi capitalisti, discriminatori e orientati al profitto» (p. 122, T.d.A.) non potrà mai essere etica, anche quando non viola apertamente alcuna legge. Questo è un punto importante, perché mette in evidenza un’altra debolezza dell’argomentazione di Floridi: l’idea che esistano usi «impropri» e «illeciti» contrapposti a usi «etici» dell’IA. Eppure, esistono ormai tanti esempi di usi non illegali né illeciti di IA che hanno avuto conseguenze nefaste per la democrazia e la società (per esempio il caso della discriminazione dell’IA nei servizi assistenziali del governo olandese, che ha portato alle dimissioni del primo ministro nel 2021, cfr. J. Henley, Dutch government resigns over child benefits scandal, www.theguardian.com, 15.05.2021). Thatcher e Dalton sostengono che sia possibile trarre dei benefici dall’impiego di sistemi di IA, ma affinché questo avvenga non basta darci delle norme etiche (che poi, verrebbe anche da chiederci, l’etica è universale? Esiste una sola etica del digitale, oppure diverse culture e società, con diversi sistemi valoriali, potrebbero sviluppare etiche del digitale molto o leggermente diverse tra loro?), abbiamo bisogno della politica: «siamo a favore di una politica che reinterpreti i dati e gli algoritmi come strumenti orientati all’emancipazione e alla solidarietà» (p. 121, T.d.A.). Per questo, ci dice Pieter Verdeghem, «dobbiamo trovare alternative in termini di proprietà e governance. I beni comuni sono proposti come un’alternativa per pensare a come organizzare lo sviluppo dell’IA e come distribuire il valore che ne può derivare. Usare la struttura dei beni comuni è anche un modo per dare alla società un ruolo più importante nel dibattito su cosa ci aspettiamo dall’IA e su come dovremmo affrontarla» (p. 1, T.d.A.).
In sostanza, un’etica dell’IA dipende da quale modello sociale vogliamo sviluppare e, secondo questi ultimi studiosi, può solo fiorire al di fuori del mercato capitalista di dati e algoritmi.
In AI & Conflicts (Brescia: krisis publishing, 2021), c’è un interessante scritto di Kate Crowford e Vladan Joler che tocca questi temi a partire da Amazon Alexa