Le conseguenze dell’intelligenza artificiale

Per delineare un’etica delle intelligenze artificiali è necessario conoscere il lavoro di Kate Crawford e quello di Luciano Floridi: il confronto tra le loro opere ci offre un’utile panoramica su criticità e possibili soluzioni.


in copertina e nel testo: un’elaborazione digitale di Francesco D’Isa, Midjourney, 2022

Questo testo è un estratto da La Rivista il Mulino N.3 , ringraziamo l’editore per la gentile concessione.


di Tiziano Bonini

Tra la fine del 2021 e linizio del 2022 sono usciti due libri molto importanti sullintelligenza artificiale (IA). Conviene leggerli insieme, come due gemelli eterozigoti. Il primo è quello di Kate Crawford, Né intelligente né artificiale. Il lato oscuro dellIA (versione italiana delloriginale inglese Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021); il secondo è quello di Luciano Floridi, Etica dellintelligenza artificiale. Il primo rappresenta la pars destruens del discorso pubblico sullIA, il secondo, invece, la pars costruens. 

Il libro di Crawford ha il merito di rendere estremamente visibile linfrastruttura planetaria che si nasconde dietro lo sviluppo e la diffusione di sistemi di IA e di rappresentarci questa infrastruttura come la versione contemporanea di precedenti forme di industria estrattiva. La creazione di sistemi di IA è strettamente legata allo sfruttamento delle risorse energetiche e minerarie del pianeta, di manodopera a basso costo e di dati su amplissima scala (p. 22). 

Crawford ci mostra come lintelligenza artificiale «nasce dai laghi salati della Bolivia e dalle miniere del Congo, ed è costruita a partire da set di dati etichettati da crowdworkers che cercano di classificare azioni, emozioni e identità umane. Viene utilizzata per guidare droni nello Yemen, per guidare la politica migratoria degli Stati Uniti e per definire, in tutto il mondo, le scale di valutazione del valore umano e del rischio» (p. 250). 

Il libro è diviso in sei capitoli, in cui Crawford prende in esame gli impatti ecologici dellIA (Terra), le conseguenze dellIA sul lavoro (Lavoro), il modo predatorio in cui sono stati raccolti i dati su cui i sistemi di IA sono stati addestrati (Dati), i modi in cui si è affermata la logica classificatoria che sta dietro lIA (Classificazione), lillusione di aziende e agenzie militari di rendere le emozioni calcolabili e prevedibili (Emozioni), il ruolo dello Stato nello sviluppo dellIA (Stato) e una riflessione finale sui tipi di potere a cui è funzionale lIA. 

In ognuno di questi sei capitoli, Crawford assesta una critica ben documentata alla retorica tecno-ottimista, che racconta lIA come la soluzione a tanti problemi sociali e ambientali. Crawford parte dalla materialità dellIA, dalla sua necessità di suolo ed energia, ne espone il pericolo per lambiente e per il lavoro umano, ne ricostruisce la storia, facendo emergere la natura «coloniale» del modello estrattivista che ha permesso laccumulo dei dati sui quali lIA viene allenata e ne evidenzia la capacità di sorveglianza e controllo sociale da parte di Stati e aziende. In questa ricostruzione accurata, lIA non produce niente di buono e non è intesa come una tecnologia neutrale, che può essere usata in modi positivi o negativi a seconda di chi la imbraccia. Finora, ci dice Crawford, lIA ha avuto solo un impatto negativo sullambiente naturale e sulla società, perché rappresenta il naturale proseguimento di un modello di sviluppo – quello del capitalismo industriale – che è di base estrattivo e predatorio. 

Al di là di questa posizione che qualcuno potrebbe definire «radicale», il libro di Crawford ha, tra gli altri meriti, quello di descriverci lIA non come una semplice tecnologia o un insieme di innovazioni tecnologiche, ma come un apparato socio-tecnico, o socio-materiale, animato da una complessa rete di attori, istituzioni e tecnologie. LIA per Crawford è «unidea, uninfrastruttura, unindustria, una forma di esercizio del potere; è anche una manifestazione di un capitale altamente organizzato, sostenuto da vasti sistemi di estrazione e logistica, con catene di approvvigionamento che avviluppano lintero pianeta» (p. 25). 

Considerare lIA non come una tecnologia ma come una complessa rete materiale composta di risorse naturali, combustibili, lavoro umano, infrastrutture, logistica, storie e classificazioni ci permette di rendere visibili tutti gli attori che orbitano attorno ad essa, e comprendere che, come tutte le tecnologie, anche i sistemi di IA sono il frutto di ampie strutture sociali e politiche. Se lIA è «un insieme di pratiche tecniche e sociali, istituzioni e infrastrutture, politica e cultura» (p. 16), allora il suo impatto non dipende dalla tecnologia in sé, ma dalla sua costruzione sociale, cioè dal modo in cui una data società, in base ai propri valori, si approprierà di questa tecnologia. 

Il problema, per Crawford, è che lIA non è una «nuova» tecnologia che dovremmo essere in grado di governare in futuro per trarne dei benefici: lIA ha già una lunga storia alle spalle. LIA che oggi viene impiegata in diversi settori della società, della politica e delleconomia è il frutto di un capitalismo coloniale e predatorio. I sistemi di IA sono quindi espressioni di potere che discendono da forze economiche e politiche più ampie, creati per aumentare i profitti e centralizzare il controllo nelle mani di coloro che li detengono. 

LIA non è una tecnologia intrinsecamente buona o cattiva, non è questa la domanda da porci. Bisogna chiedersi al servizio di chi funziona, quali poteri agevola. 

In sostanza, il libro di Crawford si presenta come un atlante di economia politica critica dellIA, arricchito da un approccio da studiosa di STS (Science & Technology Studies), cioè da studiosa che concepisce il rapporto tra tecnologia e società come mutually shaped, ossia costruito socialmente. 

Teniamo a mente la questione del potere posta da Crawford (chi governa lIA, per chi funziona lIA) e passiamo a esplorare il libro di Luciano Floridi, che alla questione del potere – politico, istituzionale o economico – dedica invece pochissimo spazio. Il libro di Floridi è altrettanto ambizioso, e altrettanto informato da anni di ricerca del suo gruppo di lavoro, nonché dallanalisi di una mole notevole di letteratura sullIA. 

Floridi, a differenza di Crawford, considera lIA non come un «apparato socio-tecnico», ma come una serie di innovazioni tecnologiche. Il libro è molto ben strutturato e ambisce a essere divulgativo, nonostante alcuni capitoli più tecnici. Parte da una breve ricostruzione storica dei processi di digitalizzazione della società, che però di storico ha molto poco, e riproduce una visione lineare di questo processo: al progressivo aumento della potenza di calcolo, fa corrispondere un progressivo stato di digitalizzazione della società, fino ad arrivare alla commistione tra mondo offline e online, che lui notoriamente chiama «onlife». Poi passa a descrivere le diverse ondate di dibattito pubblico che hanno caratterizzato lIA, fino a quella presente, e mette in evidenza le alterne fortune che la ricerca sullIA ha avuto dalle sue origini fino a oggi. Infine, si lancia in previsioni sul futuro dellIA, legando questo futuro a questioni etiche, che sono il fulcro della seconda parte del libro e anche quella in cui la ricerca di Floridi è più solida. Di fatto, il libro si pone domande importantissime relative alla possibilità di far funzionare lIA in maniera etica. Il valore del libro non sta nelle domande che pone, ma nelle risposte che prova a dare. 

Allinizio della seconda parte del libro (capitolo 4), Floridi analizza in maniera comparativa tutti i principi etici sviluppati finora da diversi enti, istituzioni e governi, per ladozione di una IA socialmente vantaggiosa e propone una sintesi di questi principi, riducendoli a cinque macro-principi fondamentali, i primi quattro dei quali sono comuni a quelli della bioetica: beneficenza, non maleficenza, autonomia e giustizia. A questi quattro principi della bioetica, Floridi aggiunge il principio dellesplicabilità: lIA, per essere definita «etica», deve essere intelligibile e responsabile (accountability), il suo funzionamento deve cioè essere «spiegabile». 

Questa prima mappatura dei principi di base ai quali si dovrebbe ispirare qualsiasi implementazione di IA pone le fondamenta del discorso successivo. Floridi è consapevole delle conseguenze non etiche (discriminatorie) dellimpiego di algoritmi di IA e ne fornisce unampia descrizione nel capitolo 7. Qui è molto chiaro nel sostenere che lIA, anche quando viene impiegata con buone intenzioni, può finire per riprodurre o amplificare discriminazioni già presenti nella società, come ormai molti studi e libri hanno dimostrato (S. Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York University Press, 2018; V. Eubanks, Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor, St. Martins Publishing Group, 2018; C. ONeil, Armi di distruzione matematica. Come i big data aumentano la disuguaglianza e minacciano la democrazia, trad. it. Bompiani, 2017). 

Nel capitolo 8, invece, analizza i possibili usi «impropri» e «illeciti» dellIA. Tra le cattive pratiche inserisce i modi in cui lIA può essere impiegata per generare profitti illeciti tramite azioni criminali come furti, frodi informatiche, reati contro la persona (comprese le molestie e il razzismo perpetrati da profili di bot sui social media), reati finanziari.
Dopo aver passato in rassegna i modi in cui lIA può essere messa al servizio di atti criminali, Floridi passa allanalisi delle buone pratiche, che chiama AI4SG (AI for Social Good, «IA per il bene sociale») e identifica sette fattori etici essenziali per le future iniziative di AI4SG.

Per AI4SG Floridi intende «il design, lo sviluppo, limplementazione  di sistemi di IA in modo da (i) prevenire, mitigare, risolvere i problemi che incidono negativamente sulla vita umana e/o sul benessere del mondo naturale e/o (ii) consentire sviluppi preferibili dal punto di vista sociale e/o sostenibili dal punto di vista ambientale» (p. 227). 

A questo proposito, Floridi fornisce sette iniziative di successo in cui lIA è stata già implementata per il bene sociale. Tutte queste iniziative rispondono ai cinque principi etici che dovrebbero guidare lIA, individuati nel capitolo 4. 

Qui emerge finalmente uno dei tratti distintivi di questo libro, cioè la volontà di non fermarsi solo alla critica e agli aspetti problematici dellIA (capitoli 7 e 8), ma arrivare a definire dei principi etici per il suo sfruttamento positivo. 

Francesco D’Isa / Midjourney

A partire dal capitolo 9 fino alla fine, Floridi cerca razionalmente di individuare principi e criteri che dovrebbero informare il design e la governance degli algoritmi per perseguire apertamente «il bene sociale». Il fine ultimo di questo libro è quello di giungere a una definizione di unetica dellintelligenza artificiale (che Floridi chiama «etica del digitale») capace di individuare la maniera «migliore» e le azioni più «buone» per ottenere il massimo dei benefici dallintelligenza artificiale e, in ultima istanza, «avere una società migliore». Questa etica permetterebbe, secondo Floridi, di assimilare i potenziali benefici dellIA, mitigandone i danni e i rischi. 

A differenza del libro di Crawford, che rappresenta una profonda critica allascesa dellintelligenza artificiale nella società, il libro di Floridi è mosso, potremmo dire, da una spinta «meta-etica»: è mosso, cioè, dalla convinzione profonda che sia «eticamente» necessario stabilire un’«etica» del governo dellintelligenza artificiale. Mentre Crawford si ferma alla critica dellIA, Floridi va molto oltre, ponendosi lobiettivo di costruire unimpalcatura etica che ci permetta di sfruttare «correttamente» o, meglio, «eticamente» il potenziale dellIA. Floridi, in sostanza, crede che sia possibile mettere lIA al servizio della società, crede nellesistenza di una IA «buona» e la contrappone a una IA «cattiva», cosa alla quale Crawford non crede affatto. 

Floridi arriva a stilare una lunga lista di raccomandazioni che permettono di addomesticare lIA mettendola al servizio dellumanità. Unetica del digitale deve non solo servire a costruire una consapevolezza critica, ma «segnalare i problemi etici rilevanti nellapplicazione dellIA, impegnarsi con le parti interessate da tali problemi etici e, soprattutto, disegnare e implementare soluzioni condivisibili» (p. 143). Qualsiasi esercizio etico, sostiene ancora lautore, «che non riesca alla fine a fornire e attuare alcune raccomandazioni accettabili è soltanto un timido preambolo» (p. 143). «Letica deve sedersi al tavolo delle scelte politiche e delle procedure decisionali fin dal primo giorno» (p. 144). 

Mosso da questo proposito, nel capitolo 11 arriva quindi a formulare venti raccomandazioni etiche per una «società della buona IA» (p. 287). A queste raccomandazioni se ne aggiungono altre per mitigare limpatto ambientale dellIA (capitolo 12). Anche se in maniera molto meno dettagliata e profonda di Crawford, anche Floridi è consapevole dellimpatto dellIA sul cambiamento climatico. Ma per Floridi, questo impatto non è solo negativo, è anche ambivalente. Da un lato mette in evidenza come lIA sia utile per valutare enormi volumi di dati ambientali e studiare le tendenze climatiche del futuro: lIA, ci dice, è già stata impiegata per prevedere le variazioni della temperatura media globale, o anche per calcolare come rendere più efficiente il consumo di energia da parte dellindustria. Dallaltro, evidenzia anche lenorme quantità di energia di cui si alimentano i sistemi di IA. Il paradosso è che limpronta ecologica generata dallIA per aiutarci a combattere il cambiamento climatico contribuisce ad accelerare questo processo. Per superare questo paradosso, Floridi propone tredici raccomandazioni per un impiego «ecologico» dellIA contro il cambiamento climatico. 

Come valutare, in conclusione, il libro di Floridi? Sarebbe scorretto situare Floridi tra i tecno-ottimisti. Floridi non è un ingenuo «soluzionista tecnologico» che crede nella capacità della tecnologia di risolvere qualsiasi problema sociale. Infatti, rileva che «ci sono molte circostanze in cui lIA non è il modo più efficace per affrontare un determinato problema sociale» (p. 225). In questo modo prende le distanze da facili accuse di «determinismo tecnologico». Nel capitolo 10 infatti riconosce linutilità della classica diatriba tra apocalittici e integrati (che lui chiama, rispettivamente, «atei dellIA» e «adepti della singolarità») e riconosce anche, come aveva fatto Crawford, che lIA non è «intelligente» e difficilmente riuscirà a superare lumanità nella capacità di «pensare», almeno nel breve-medio termine. È più corretto, infatti, comprendere lIA come una tecnologia capace di risolvere problemi, portare a termine dei compiti, fare le cose meglio di come le facciamo noi, ma «senza pensare, limitandosi a elaborare una grande quantità di dati in modo sempre più efficace» (p. 275). 

LIA è come una lavastoviglie, ci dice Floridi: lava i piatti meglio di noi, ma non è più intelligente di noi. Da questo esempio, Floridi, un poingenuamente, arriva a sostenere che «qualsiasi visione apocalittica dellIA può essere ignorata» e che il rischio reale dellIA sta nel fatto che «possiamo utilizzare male le nostre tecnologie digitali, a danno di una grande percentuale dellumanità e dellintero pianeta» (p. 276). In questo passaggio, lautore cade temporaneamente nella trappola della nota posizione retorica per cui la tecnologia non sarebbe «né cattiva né buona, dipende da come la usiamo». 

È su questa linea di faglia che si separano i libri di Crawford e Floridi. La prima mostra le relazioni di potere che finora hanno plasmato gli usi attuali dellIA, il secondo sembra valutare lIA da un punto di vista puramente razionale ed etico, inserendolo in uno spazio vuoto, come se non esistessero la storia, leconomia, la politica e la cultura. Nelle 384 pagine del libro di Floridi non compare mai la parola «capitalismo» (mentre nel libro di Crawford compare 21 volte) e solo tre volte compare la parola «potere» inteso come «potere economico o politico» (nel libro di Crawford compare 121 volte). 

Il libro di Floridi rappresenta un tentativo approfondito, documentato e innovativo di stabilire dei confini etici per luso dellIA e può sicuramente contribuire a un impiego più attento e meno rischioso di queste tecnologie, utile per i decisori politici (a cui principalmente si rivolge) e utile al dibattito pubblico, perché ci mostra che esistono anche notevoli benefici nellapplicazione dellIA. Però ha il limite di «dimenticarsi» del contesto socio-politico in cui finora lIA è cresciuta. Questi limiti emergono sia nelle conclusioni finali del libro, sia nelle conclusioni al capitolo 2 (p. 61), quando lautore si fa una domanda che è vitale: nella relazione di coppia tra IA e umanità, chi si adatterà a chi? Floridi è consapevole del rischio che corre lumanità, cioè di doversi adattare a una relazione le cui regole siano imposte dallIA. Saremo noi a doverci adattare per rendere il nostro mondo «calcolabile» dallIA, o sarà lIA che dovrà adattarsi alle nostre esigenze? Floridi offre una visione futura «etica» in cui lumanità, attraverso il design «etico» della tecnologia, sarà capace di plasmare il futuro facendo lavorare lIA a proprio vantaggio. 

Alla fine del libro sostiene che il problema siamo noi, non la tecnologia, cioè dovremo rendere lIA adatta al nostro ambiente e non viceversa. LIA, ci dice ancora Floridi, dovrebbe essere usata per trattare le persone come fini e non come semplici mezzi. Tutto molto condivisibile, certo, ma dimentica di spiegarci come mai, troppo spesso, le persone vengono trattate come mezzi e non come fini, e chi sono gli attori che, storicamente, ci hanno ridotto a mezzi per i propri fini. Spesso, ciò che è etico non è così facilmente realizzabile, perché di mezzo ci si mettono attori molto potenti che non hanno a cuore letica, ma il profitto per il profitto. La logica dellattuale capitalismo di piattaforma (o di «sorveglianza», come lo chiama Zuboff) mira a trasformare qualsiasi cosa in un asset finanziario. Lo studioso di media Pieter Verdegem (Westminster University) sostiene che «il capitalismo dellIA è caratterizzato dalla mercificazione dei dati, dallestrazione dei dati e dalla concentrazione di talenti e capacità di calcolo nelle mani di poche aziende. Questo modello è alla base dellinarrestabile spinta alla crescita di Big Tech, che porta alla monopolizzazione secondo il principio chi vince prende tutto» (P. Verdegem, Dismantling AI capitalism: The commons as an alternative to the power concentration of Big Tech, «AI & Society», 2022, p. 1, T.d.A.). 

Floridi non sembra essere preoccupato da questo e ripone grande fiducia nella capacità dellUe di guidare uno sviluppo tecnologico etico e regolamentato, allinterno però di un quadro moderatamente liberista che non mette mai in discussione. 

Ecco perché i due libri presentati qui sono gemelli: a unetica dellIA manca uneconomia politica dellIA, che è quella che fornisce Crawford. Allo stesso tempo, allautrice americana manca una riflessione sulle possibilità di usare eticamente lIA e porre delle regole concrete al suo utilizzo. 

La «terza via», tra queste due opposte concezioni dellIA, potrebbe essere quella rappresentata da ricercatori come Jim Thatcher e Craig Dalton, due geografi che hanno pubblicato Data Power. Radical Geographies of Control and Resistance. Questi due autori sostengono che luso dellIA allinterno di «sistemi capitalisti, discriminatori e orientati al profitto» (p. 122, T.d.A.) non potrà mai essere etica, anche quando non viola apertamente alcuna legge. Questo è un punto importante, perché mette in evidenza unaltra debolezza dellargomentazione di Floridi: lidea che esistano usi «impropri» e «illeciti» contrapposti a usi «etici» dellIA. Eppure, esistono ormai tanti esempi di usi non illegali né illeciti di IA che hanno avuto conseguenze nefaste per la democrazia e la società (per esempio il caso della discriminazione dellIA nei servizi assistenziali del governo olandese, che ha portato alle dimissioni del primo ministro nel 2021, cfr. J. Henley, Dutch government resigns over child benefits scandal, www.theguardian.com, 15.05.2021). Thatcher e Dalton sostengono che sia possibile trarre dei benefici dallimpiego di sistemi di IA, ma affinché questo avvenga non basta darci delle norme etiche (che poi, verrebbe anche da chiederci, letica è universale? Esiste una sola etica del digitale, oppure diverse culture e società, con diversi sistemi valoriali, potrebbero sviluppare etiche del digitale molto o leggermente diverse tra loro?), abbiamo bisogno della politica: «siamo a favore di una politica che reinterpreti i dati e gli algoritmi come strumenti orientati allemancipazione e alla solidarietà» (p. 121, T.d.A.). Per questo, ci dice Pieter Verdeghem, «dobbiamo trovare alternative in termini di proprietà e governance. I beni comuni sono proposti come unalternativa per pensare a come organizzare lo sviluppo dellIA e come distribuire il valore che ne può derivare. Usare la struttura dei beni comuni è anche un modo per dare alla società un ruolo più importante nel dibattito su cosa ci aspettiamo dallIA e su come dovremmo affrontarla» (p. 1, T.d.A.). 

In sostanza, unetica dellIA dipende da quale modello sociale vogliamo sviluppare e, secondo questi ultimi studiosi, può solo fiorire al di fuori del mercato capitalista di dati e algoritmi. 


TIZIANO BONINI è professore associato in Sociologia dei processi culturali e comunicativi nellUniversità di Siena, dove insegna Sociologia della comunicazione. Insieme a Emiliano Treré ha scritto Algorithmic Weapons of the Weak. Power, Agency and Resistance in the Platform Society, di prossima uscita con Mit Press. 

1 comment on “Le conseguenze dell’intelligenza artificiale

  1. Matteo Vavassori

    In AI & Conflicts (Brescia: krisis publishing, 2021), c’è un interessante scritto di Kate Crowford e Vladan Joler che tocca questi temi a partire da Amazon Alexa

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *