Pregi e difetti dell’AI Act



Un dialogo attorno ai pregi e ai difetti del recente sforzo europeo di regolamentare le intelligenze artificiali, con Francesco D’Isa (artista e filosofo) ed Emmanuele Serlenga (avvocato).


In copertina: Francesco D’Isa, giardini, Stable diffusion, 2024.

 

di Francesco D’Isa ed Emmanuele Serlenga

Tra promesse e paure, l’intelligenza artificiale è ormai parte del nostro mondo. L’Unione Europea, attraverso l’adozione dell’AI Act, mira a incanalare questa potente tecnologia verso uno sviluppo etico e sostenibile. Tuttavia il cammino è pieno di sfide e l’AI Act, nonostante le sue nobili intenzioni, presenta sia soluzioni che lacune. A esplorare questi temi nel dialogo che segue sono Francesco D’Isa, artista e filosofo che ha abbracciato precocemente l’IA nella sua pratica creativa, ed Emmanuele Serlenga, legale specializzato in diritto tecnologico.

Francesco D’Isa: L’AI act è realtà. Ne sono felice, perché una regolamentazione di queste tecnologie era necessaria, soprattutto nei confronti di alcuni usi potenzialmente molto rischiosi. Certo non è perfetto e su alcune parti ho dei dubbi, magari ne parleremo, ma è un buon inizio. A uno sguardo da profano mi pare che alcuni utilizzi rischiosi siano stati mitigati, nonostante alcune resistenze politiche, come quelle nell’ambito del riconoscimento facciale. Personalmente sono soddisfatto che vieti categoricamente l’uso di sistemi di categorizzazione biometrica basati su caratteristiche sensibili (come convinzioni politiche, religiose, o razza), la raccolta non mirata di immagini per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, il social scoring, e tecniche manipolative. Tu che ne pensi?

Emmanuele Serlenga: L’art. 5 comma I del testo vieta tassativamente, considerandoli rischi in nessun modo accettabili, sistemi di IA che utilizzino tecniche subliminali o tecniche manipolative o ingannevoli per distorcere il comportamento, che sfruttino la vulnerabilità di individui o gruppi di individui specifici, caratterizzazione biometrica basati su attributi con caratteristiche sensibili, social scoring, ossia di classificazione della reputazione dei cittadini, evitando così ad esempio che siano lecite campagne di denigrazione di qualsivoglia gruppo sociale basate su sistemi di IA.
Si lascia apprezzare, a mio giudizio la centralità attribuita dal legislatore europeo al diritto alla reputazione, che attiene all’identità sociale, ossia alle convinzioni e alle opinioni che gli altri soggetti, membri del gruppo di appartenenza, si fanno di una certa persona o di un gruppo di persone. Il fatto che da qualche anno i social networks abbiano ampliato la platea del gruppo di appartenenza di ognuno di noi, rende ancora più importante tutelare questo diritto ed il legislatore dell’AI ACT l’ha compreso, tenendo presente anche l’incidenza, quantomeno potenziale, di campagne denigratorie sul processo democratico. Effettivamente, questa è a mio giudizio una delle parti più riuscite e lungimiranti dell’AI ACT.

FD: Sì, anche secondo me questa è la parte più preziosa dell’IA act. È un peccato che non si menzioni l’uso militare, ma forse non è di loro competenza, sebbene sia a mio parere uno degli usi più pericolosi su cui per motivi geopolitici gli accordi purtroppo latitano…

ES: Ecco, questo è a mio avviso il più grave punctum dolens dell’AI ACT, anche perché nemmeno si vede all’orizzonte una normativa ad hoc. Peraltro la volontà del legislatore europeo di escludere l’ambito militare dall’AI ACT è stata sempre univoca fin dalla sua prima bozza.

Ciò è molto preoccupante, alla luce dei molteplici utilizzi dell’IA da ormai un ventennio in vari ambiti del settore militare: elaborazione di armi di precisione, regolamentazione e attuazione di sistemi di combattimento, ottimizzazione di trasporti e logistica, protezione dei segreti militari dagli attacchi informatici e molto altro ancora.

FD: Avevo sentito che è proprio un ambito in cui non possono legiferare, ti risulta? Le intenzioni di questo enorme lavoro mi sembrano ottime, nonostante alcune strade che reputo sbagliate. Il problema comunque è a monte: quale paese mai vorrebbe fare una legge per restare indietro nella potenza militare? Si mormorava di accordi Cina-USA per non collegare IA a bombe atomiche, una roba che davvero basterebbe il buonsenso, ma credo che persino lì non sia stato raggiunto molto. Ammetto che trovo imbarazzante come ci si preoccupi a gran voce di chi “copia le opere d’arte” (interpretazione che peraltro trovo falsa) e nessuno dei critici si muove o protesta contro l’uso militare, che ovviamente non sarà fermato dal copyright…

ES: A livello normativo, nulla avrebbe ostato a una regolamentazione dell’IA anche in ambito militare. Volendo si sarebbe potuto anche agire come avvenne nel GDPR per i trattamenti praticati dalle Forze di Polizia, ai quali fu dedicata una normativa ad hoc, ma contestuale al GDPR stesso. Invece, da subito il legislatore europeo è stato molto chiaro nell’escludere l’ambito militare dall’AI ACT. Personalmente credo che essendo l’IA utilizzata anche nel conflitto russo – ucraino che vede un massiccio impiego di risorse militari e finanziarie da parte dell’UE, essa probabilmente non ha voluto limitarsi onde non concedere vantaggi al nemico, seguendo il vecchio adagio secondo il quale in amore e in guerra è tutto permesso. È una visione che comprendo ma che non mi trova d’accordo.

FD: Vale lo stesso per me. Credo anzi che sia uno specchio interessante in cui si riflette il futuro delle AI: laddove hanno e avranno un ruolo per rendere più competitivo uno stato/azienda, i margini legali si adatteranno.

ES: È così. Considera che l’IA sta letteralmente cambiando l’approccio alla guerra, in quanto riesce ad analizzare una grande quantità di dati in poco tempo. Ad esempio l’amministratore delegato di Palantir, compagnia statunitense specializzata nelle nuove tecnologie e nell’analisi di big data, non ha nascosto il coinvolgimento della propria azienda nel conflitto in Ucraina, che ha offerto peraltro gratuitamente volendo testare il potenziale dell’IA in ambito bellico.

Credo che questa mancanza di regolamentazione nel settore militare sia l’aspetto in assoluto più inquietante dell’AI Act.

FD: Sono d’accordo con te. Un’altra parte controversa dell’IA Act è anche quella legata ai foundation models, o le intelligenze artificiali generative. Cose come ChatGPT e Midjourney, insomma. Qui secondo me c’è stata un’occasione mancata: ho letto molta enfasi sull’idea di un obbligo di indicare che un output proviene da una IA, ma è un procedimento probabilmente impossibile per le immagini e senz’altro impossibile per il testo, dove basta copiare… credo che qua ci sia proprio un po’ di wishful thinking per tranquillizzare le voci più preoccupate, anche se il terrore del materiale falso è a mio parere (e non solo) mal posto, perché l’impatto di una notizia o di un documento risiede nella narrazione che vi si costruisce attorno, molto più che nella sua attendibilità testimoniale, che sin dalla sua nascita con la fotografia è stata messa in dubbio dalle prime falsificazioni, penso alle famose fate che ingannarono Conan Doyle…

ES: Intanto, per capire la delicatezza del punto, basterà pensare che per mesi la stessa approvazione dell’AI ACT è stata a rischio proprio per la divergenza di vedute sui foundation models. Francia e Germania nel novembre 2023, avevano proposto di una sola categoria di foundation model, sostanzialmente soggetta alla sola autoregolamentazione degli operatori ed a loro si era alleata anche l’Italia. Questo approccio si scontrava però con la posizione del Parlamento Europeo, che invece preferiva una regolamentazione più incisiva.

La Commissione Europea ha dovuto quindi mediare tra i due approcci e credo abbia agito in modo ragionevole proponendo agli artt. 51ss un sistema regolamentare “scalare” in cui gli obblighi di maggior peso sono riservati solo agli operatori ritenuti più rischiosi.

Il merito maggiore dell’AI Act è, a mio giudizio, avere individuato una definizione unitaria di foundation model, che sono ora denominati dall’AI Act come “General Purpose AI Model” (“modelli GPAI”) definibili come dei modelli informatici che possono essere usati per una varietà di compiti, singolarmente o inseriti come componenti in un sistema AI.

L’AI Act individua due categorie di modelli GPAI, generici e sistemici. Questi ultimi sono dei modelli che, in virtù dei rischi sistemici che possono provocare a livello europeo, sono soggetti ad una regolamentazione più pervasiva rispetto a quelli generici che hanno in capo soltanto obblighi di trasparenza, consistenti nel garantire la disponibilità di documentazione tecnica che renda comprensibile il loro funzionamento oltre che nominare nominare un proprio rappresentante autorizzato ad interfacciarsi con le autorità competenti.

La scelta di quali siano gli uni e quali gli altri è rimessa dall’AI ACT ad una procedura gestita dalla sola Commissione, che agisce sulla base di criteri piuttosto vaghi (“Capacità di impatto elevato valutato sulla base di strumenti tecnici e metodologie adeguate”) i quali inoltre possono essere adeguati dalla stessa Commissione nel corso del tempo; senza dubbio dunque la Commissione si è ritagliata un ruolo centrale nell’economia dei modelli GPAI: vista la maggiore neutralità dagli Stati membri, almeno teorica, quindi capacità di garantire uniformità di tale Organo rispetto al Parlamento ed al Consiglio Europeo, anche questa opzione mi sembra ragionevole.

Desta invece maggiori perplessità l’obbligo in capo ai di prevedere una policy mirante al rispetto della normativa sul diritto d’autore, che però non si spinge fino a prevedere l’obbligo di una remunerazione, quindi ad oggi da questo versante la normativa appare incompiuta.

Infine, l’art. 52 comma III prevede che: “Gli utenti di un sistema di IA che genera o manipola immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri per una persona (“deep fake”) sono tenuti a rendere noto che il contenuto è stato generato o manipolato artificialmente”.
Il principio, che cerca di salvaguardare trasparenza e obblighi di formazione, è corretto, tuttavia temo che sia una norma destinata a essere bypassata perché come affermi giustamente tu, basta poco per rendere di fatto impossibile stabilire se la genesi di quel documento o di quella foto sia nell’IA.

FD: Concordo con quanto dici, da quel punto di vista hanno fatto un ottimo lavoro, la precisazione sui modelli era necessaria. Il problema dei deepfake, al netto che se ne sopravvaluta l’impatto, mentre si sottovaluta quello di altre forme di disinformazione, è che se l’intenzione non è malevola, la norma è inutile, mentre se è malevola c’è già un illecito. Se ci pensi è come dire che chiunque faccia un fotomontaggio molto realistico deve dichiarare che lo ha fatto. A me sta anche bene, ma perché un fotomontaggio “tradizionale” va bene e uno creato con IA no? Più che altro la trovo una norma inutile. Se produco una copia perfetta di un’immagine presa da una telecamera a circuito chiuso di Chiara Ferragni che ruba un pandoro in un supermercato, ci credi? No, perché la verità dell’immagine non risiede in se stessa ma nel contesto e nella sua provenienza, ed è indizialmente facile bollare questa come falsa. Ma questa immagine è innocua? No, perché la forza delle immagini è nella narrazione che costruiscono più che nella loro “verità”, e per quanto poco credibile potrebbe comunque crearle danno. Sono decenni che sottovalutiamo il potere delle narrazioni (anche per immagini) e ancora una volta sbagliamo mira, alla ricerca della “verità”.

ES: È proprio così. Peraltro è difficile da spiegare questa disparità di trattamento tra il fotomontaggio tradizionale e quello creato con l’IA, come se uno sia meno deepfake dell’altro. Credo sia anch’essa un punto critico.

FD: Anche il punto sul diritto d’autore è a mio parere problematico. Sotto insistenza di Egair (a quanto dicono) e secondo me anche di alcuni detentori di diritti, magari di tanti diritti, hanno inserito questa voce, ma in modo piuttosto vago. Mi pare che essenzialmente rimandino a una legge già esistente, che però va visto come si interpreta in merito. C’è una voce che sembra una sorta di opt-out, ovvero che (per fortuna almeno a eccezione di scopi scientifici) non si possano usare senza permesso i dati di chi comunica che il proprio materiale non deve essere usato per il training. A questo si unisce l’obbligo di trasparenza, che trovo molto giusto, anche se per motivi diversi da quelli cui allude l’Act. Per me la trasparenza è necessaria per capire il mondo cognitivo di queste IA, che spesso ci portano a dare per scontato il loro funzionamento, niente affatto neutro (da cui i vari bias). Nell’Act sembra che lo scopo sia più legato al diritto d’autore; eppure dai “dettagliati riassunti” richiesti della composizione del dataset è molto probabile che resterebbero fuori la maggior parte dei lavori dei singoli.

Gli unici che hanno qualcosa da guadagnare mi pare siano i grossi detentori di diritti, che in virtù della quantità saranno segnalati, e che di conseguenza se vorranno saranno esclusi dal training, o, più probabilmente, verranno pagati per essere inclusi. Non vedo guadagno per i singoli, ma solo scambi di denaro tra corporazioni. D’altra parte quanto compensi dieci immagini o pagine di testo su miliardi? Vale la pena solo se possiedi i diritti di moltissimi dati. Se sei il NYT, ad esempio, per fare un collegamento con la causa contro OpenAi.

Non mi curerei di questo scambio economico tra aziende, se non fosse che ci allontana sempre di più da quella che per me è l’unica richiesta davvero etica: AI pubbliche e aperte. Sono strumenti potenti, costruiti con i dati di tutti/e (non certo solo gli artisti), e le loro potenzialità dovrebbero essere trasparenti e accessibili al pubblico. Non al servizio monopolista di chi ha la potenza economica per produrle ed eventualmente acquisire i diritti.

Le big tech hanno utilizzato un bene pubblico (miliardi di dati) per creare un bene privato (i software IA), e la risposta peggiore che possiamo dare è sostenere che il bene pubblico era in realtà privato, così possono finalmente comprarselo, peraltro come sta accadendo e come è già successo in passato. A mio parere dovremmo invece pretendere che sia pubblico anche il risultato. I governi soprattutto dovrebbero mettersi al lavoro per creare delle AI pubbliche, per non renderle uno strumento elitario.

ES: Negli USA, l’Ufficio del Copyright ha adottato una posizione secondo cui le opere create interamente da IA non possono essere registrate sotto il diritto d’autore e la giurisprudenza pare essersi allineata a tale canone ermeneutico.

Invece, l’AI ACT obbliga i modelli GPAI a rispettare la normativa europea in materia di copyright, ossia la Direttiva (UE) 2019/790. Se ci pensi sembrerebbe una tautologia: se una legge è in vigore, è chiaro che si deve rispettare. C’è un però: la Direttiva vincola gli Stati membri a un obiettivo, ma li lascia liberi su come raggiungerlo e poi deve essere ratificata da un singolo Stato per entrare in vigore in esso. Invece il Regolamento è cogente da subito in tutto e per tutto per tutti.

Ciò vuol dire che nell’ambito dell’IA, gli Stati membri sono vincolati immediatamente e inderogabilmente al rispetto della predetta Direttiva, mentre al di fuori dell’IA hanno un maggior margine di manovra. Ciò significa, ad esempio che. ai sensi dell’art. 4 della Direttiva (UE) 2019/790 se il titolare del diritto indica che l’utilizzo del materiale è riservato (anche con strumenti automatici come l’opt out che si può dichiarare con apposite impostazioni nei propri siti), questo non potrà essere utilizzato, a meno che non si versi nell’ambito della lotta o della prevenzione al crimine o nella ricerca scientifica.

Di fatto, il legislatore europeo, come detto prima, non si spinge a prevedere un obbligo ed una misura di remunerazione del diritto d’autore, ma la lascia di fatto interamente alla contrattazione privata. Concordo con te sul fatto che ciò andrà a vantaggio di chi detiene tanti dati e tanto materiale e potrà farsi pagare il consenso alla riproduzione, con una limitazione, quantomeno potenziale, della libertà di accesso ai dati, quindi da quel che tu richiedi e che condivido. ​​Di fatto l’Ai Act rimanda la questione dei diritti d’autore a una direttiva già esistente e lascia del tutto intatte le problematiche in merito.

Sarà anche interessante vedere quale dei due approcci prevarrà, se quello statunitense o quello europeo: viste le continue compenetrazioni, anche culturali, tra UE e USA, è impossibile pensare che da una parte le opere di IA siano assoggettate al diritto d’autore e dall’altra parte no.

FD: Chiaro, probabilmente anche in USA andranno verso degli accordi tra (grossi) detentori di diritti e aziende tech. Saranno protetti i grossi stock e non i piccoli singoli, che anche in questo Act europeo dubito faranno parte delle “sintesi” richieste. Pensi davvero che ci sarà scritto che, ad esempio, c’erano tre foto di Francesco D’Isa? Per fortuna il regolamento europeo prevede eccezioni per le open source, ma purtroppo non su questo versante.

In Cina comunque la direzione sul diritto d’autore delle immagini prodotte da IA è opposta a quella USA, e anche in quest’ultimo contesto i giudici parlano di una “quantità di intervento umano” che può cambiare le cose. Se devo essere sincero penso che quando tutti finalmente capiranno che non sono strumenti facili da usare e che non “fa tutto il computer” le cose cambieranno. Pensa a una macchina fotografica: basta un clic a caso e comunque sono considerato autore. Perché non dovrebbe valere lo stesso con un’immagine IA scritta con un prompt anche banale?

Per tornare a quanto si diceva, temo che le IA del futuro, almeno prossimo, saranno sempre più in mano a pochissimi monopoli tech, che oltre ad avere la potenza economica per addestrarle possono acquistare diritti, o li hanno già, come dimostra il caso di Meta e Google. La mia speranza è che quando ci accorgeremo che stiamo dando in mano a dei colossi economici il potere tecnico ed etico su una tecnologia dirompente, vengano fatti ulteriori aggiornamenti. O magari progetti collettivi per contrastarli, con software open source con finanziamenti agevolati per l’acquisto di diritti e il noleggio di strumentazioni.

L’Europa ha fatto qualcosa di eccezionale, e c’è da esserne fieri, ma vorrei che avesse ascoltato anche le voci di chi questi strumenti li usa, non solo li produce o li critica. Io comunque proverò a candidarmi per collaborare con l’ufficio europeo per l’IA, quando aprono le porte, e spero che faccia lo stesso chi la pensa come me, per offrire una pluralità di voci sul tema che reputo preziosa. Avevo firmato tempo fa una lettera con altri artisti che lavorano con le AI, sembra che la nostra voce sia silenziata dal volume di quella di chi le critica e da chi le produce.

ES: Sì, è così. Il lavoro di tutte le voci che si sono levate in modo propositivo come la tua, non è comunque stato inutile, perché ritengo che gli obblighi di trasparenza previsti dall’AI ACT che sono, ripeto, assolutamente lodevoli, siano stati il frutto anche delle vostre istanze.

Per provare a sintetizzare, l’AI ACT si presenta in larga parte condivisibile e in generale deve essere salutato con favore anche perché per molti aspetti è chiarificatore e dovrebbe favorire una maggiore consapevolezza in tutti gli operatori del settore. A mio giudizio occorre però che non sia considerato un punto di arrivo, ma che si elevino quante più voci possibili che chiedano una regolamentazione dell’uso dell’IA in ambito militare ed anche che l’IA sia un modo per diminuire le disuguaglianze sia tra le persone che tra le organizzazioni, non per accrescerle.

FD: Mi chiedo inoltre cosa succederà rispetto ai modelli generativi già creati, sarà retroattiva la legge? Infine, un ultimo punto problematico: l’esenzione per la sicurezza nazionale consentirà agli Stati membri di esimersi dalle regole per qualsiasi attività che ritengano rilevante per la “sicurezza nazionale”, di fatto un’esenzione generale dalle regole che potrebbe teoricamente essere utilizzata in qualsiasi questione di migrazione, polizia e sicurezza.

ES: La legge non è retroattiva, anzi entrerà in vigore a steps che si completerà due anni dopo la sua approvazione, quindi entro il 2026. Credo però che anche i modelli già in essere dovranno da quella data adeguarsi alla nuova normativa se vorranno permanere sul mercato.

Ti aggiungo invece un ulteriore punto che a mio giudizio è meritevole di critica, ossia che l’AI ACT sostanzialmente non estende i propri divieti sui sistemi di IA al contesto migratorio. Ne consegue che saranno consentiti ad esempio i sistemi di valutazione del rischio discriminatorio nella migrazione, l’analisi predittiva per facilitare i respingimenti e persino l’uso di macchine per la verità, dal momento che al contesto migratorio il divieto di riconoscimento delle emozioni non si applica.

Quanto all’esenzione per la sicurezza nazionale, mi viene da pensare che sia certamente un aspetto problematico. Tuttavia, viste le molteplici minacce che da qualche anno pervengono ai Paesi membri dell’UE, le quali a volte si concretizzano sotto forma di attentati, probabilmente senza un’esenzione di questo tipo, l’AI ACT avrebbe incontrato molte difficoltà ad essere accolto.
Quindi il legislatore ha deciso di adottare un approccio pragmatico, ritenendo che in quel caso il meglio fosse nemico del bene.

È anche vero che è almeno dagli attentati alle Torri Gemelle dell’11/9/2001 che la nostra civiltà si interroga se sia possibile o meno proteggere la propria sicurezza senza rinunciare ai valori che della nostra civiltà costituiscono il fondamento. Nemmeno l’AI ACT riesce a rispondere a tale interrogativo.


Emmanuele Serlenga, avvocato del Foro di Torino, autore di varie pubblicazioni e relatore in convegni
FRANCESCO D’ISA (FIRENZE, 1980), DI FORMAZIONE FILOSOFO E ARTISTA VISIVO, DOPO L’ESORDIO CON I. (NOTTETEMPO, 2011), HA PUBBLICATO ROMANZI COME ANNA (EFFEQU 2014), LA STANZA DI THERESE (TUNUÉ, 2017) E SAGGI COME L’ASSURDA EVIDENZA (TLON, 2022). DI recente pubblicazione la graphic novel Sunyata con Eris Edizioni. DIRETTORE EDITORIALE DELL’INDISCRETO, SCRIVE E DISEGNA PER VARIE RIVISTE.

0 comments on “Pregi e difetti dell’AI Act

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *