L’algoritmo è una mano invisibile che governa le nostre vite? Può decidere al posto nostro, modificare la rappresentazione di una categoria di persone, radicalizzare rappresentazioni del mondo, ma come principale scopo ha quello di massimizzare il tempo che l’utenza passa su app e dispositivi.
IN COPERTINA e lungo il testo, 一种形态二油画, di Xu Hongming (1996)
Questo testo è tratto da Dentro l’algoritmo di Donata Columbro. Ringraziamo effequ per la gentile concessione.
di Donata Columbro
Mare o città? Cosa facciamo oggi? Sono le dieci di una calda giornata d’agosto e quattro persone adulte con le teste chine su uno smartphone guardano lo schermo come immerse nell’arte divinatoria. Il refresh dell’app che stanno consultando è lento. La percentuale che indica la probabilità di un certo evento di accadere proprio oggi sale. Dal 70% al 90%.
Si guardano con arrendevolezza e infine si dicono che invece di rischiare il diluvio in spiaggia, meglio visitare una città nei dintorni. A guidare la scelta di questo gruppo, come avrà intuito chi legge, è stata l’app del meteo installata sui loro telefoni, una tra le tante in cui è possibile consultare la probabilità di intemperie nella zona in cui ci si trova. Il gruppo forse ha consultato ben più di un’applicazione o sito nella speranza di trovarci notizie più confortanti, ma l’algoritmo che definisce il funzionamento dei modelli di previsioni metereologiche è stato implacabile: pioggia.
Quando pensi alla tua giornata e alle decisioni che l’algoritmo prende al posto tuo, in cima alla classifica potrebbero esserci applicazioni come Google Maps, di cui seguiamo con cieca fiducia ogni indicazione anche quando sembra portarci molto lontano dalla strada principale. “Che facciamo, seguiamo il navigatore?”. Massì, certo, ormai l’abbiamo attivato. E a forza di deviazioni per allontanarsi dal traffico si scoprono zone di campagna mai viste.
Al secondo posto ci sono i social media, per i motivi di cui abbiamo discusso, e per altri di cui diremo tra poco. Poi tutte le app di raccomandazione algoritmica sui nostri consumi culturali, come Spotify, o sugli acquisti, come Amazon.
Mi piace qualcosa perché me l’ha proposto l’algoritmo o perché corrisponde davvero ai miei gusti?
Da una parte abbiamo la sensazione di avere infinite possibilità di scelta, dall’altra questa è limitata dai suggerimenti di prodotti e di servizi, di notizie e di informazioni che appaiono sulle homepage e sulle bacheche, dove i dati raccolti su di noi ci guidano a prendere decisioni forse già determinate a priori.
-->Lasciamo decidere l’algoritmo perché ci sembra “una fonte di autorevolezza particolarmente comoda” scrive Hannah Fry, “un mo-do facile per delegare la responsabilità, una scorciatoia che imbocchiamo senza riflettere”. In modo più drastico Shoshana Zuboff parla di “esproprio dell’esperienza umana”, realizzato attraverso i dati che cediamo per ogni prodotto o servizio digitale che utilizziamo. Deleghiamo una scelta perché la quantità di informazioni disponibili online è talmente imponente che gli algoritmi non possono semplicemente presentarcele davanti nel momento in cui vengono prodotte, ma devono metterle in ordine per rilevanza, cioè per quello che effettivamente stiamo cercando o potrebbe servirci.
Se l’algoritmo è un processo per trovare la soluzione a un problema, oggi il problema è diventato complesso e non esiste un’unica soluzione per tutti: i miei interessi, incrociati al posto in cui vivo e alla mia disponibilità di spesa, insieme allo strumento che uso per comprare (smartphone o computer), in qualche modo mi determinano. Per esempio, le proposte di Amazon che vedo quando apro l’homepage sono rese uniche, combinando migliaia di variabili che riguardano sia le persone (cosa fanno quelle simili a me) che gli oggetti (cosa hanno in comune gli oggetti che ho acquistato in passato e che hanno acquistate le persone simili a me).
Come scrive Luigi Laura nella sua Breve storia degli algoritmi, un aspetto che accomuna le grandi aziende tech è il fatto di “implementare algoritmi per venire incontro ai nostri gusti”: questa è, almeno, la mission dichiarata e in qualche modo alimentata da una narrazione che ci convince a lasciare sempre più dati in cambio non solo di personalizzazione, ma anche di servizi e funzionalità che altrimenti non sarebbero accessibili senza una cessione di informazioni private e intime. Ma le conseguenze non sono sempre a nostro favore.
“Spotify e Netflix non cercheranno mai di proporvi la canzone perfetta o il film perfetto” scrive Hannah Fry, perché “gli algoritmi di suggerimento si limitano a offrirvi film e canzoni che garantiscano di non deludervi, dandovi un modo innocuo per passare il tempo”. Solo che del tutto innocuo non è, soprattutto se riteniamo che l’esperienza digitale abbia effetti sulla mente umana e la nostra salute tanto quanto l’esperienza fisica.
Inadeguatezza, sensazione di perderci qualcosa che sta accadendo in quel momento, ben rappresentata dall’acronimo FOMO, fear of missing out, e dipendenza da dopamina, sono alcuni dei sintomi che abbiamo provato tutti una volta nella vita utilizzando i social network. L’algoritmo e il design delle piattaforme online, anche quelle di streaming, amplificano il “sistema di rinforzo intermittente positivo”. Di recente si parla sempre più spesso di salute mentale legata al lavoro di influencer e creator, che non sono soltanto le celebrità da milioni di follower, ma chiunque usi gli strumenti digitali per proporre contenuto a un pubblico. Secondo l’acceleratore di startup SignalFire, oltre cinquanta milioni di persone si considerano creator, numero che è aumentato anche durante la pandemia quando molte persone il cui lavoro si svolgeva principalmente in presenza è stata costretta a restare a casa e ha impiegato quel tempo usando i canali social per fare rete e divulgare contenuti del proprio lavoro, ma secondo i risultati di un sondaggio prodotto da Linktree su novemila e cinquecento creator i numeri sono più alti, perché se la definizione è “chiunque usi la propria influenza e creatività per monetizzare il proprio pubblico”, sono oltre duecento milioni le persone nel mondo che potrebbero essere così classificate. Oggi è un creator anche un fisioterapista, un sarto, una medica che usano i canali social per raccontarsi. Come scrive il «New York Times» in un pezzo sul burnout dei giovani tiktokers, “molti di loro affermano di aver raggiunto un punto di rottura”. Sempre secondo Linktree il trentanove per cento dei creator soffre – indipendentemente dai guadagni – di disturbi legati allo stress, e il tredici per cento dei creator a tempo pieno si definisce “estremamente stressato”. È l’era dell’ansia algoritmica, come scrive Kyle Chayka sul «New Yorker», e se siamo online difficilmente ne siamo esenti.
L’eccezione e la norma
L’algoritmo dei social decide quali contenuti mostrare e modifica il nostro comportamento, soprattutto quando abbassiamo il livello di consapevolezza. Nel libro Che cosa vogliono gli algoritmi? Ed Finn cita il lavoro di B. J. Fogg, uno psicologo dei comportamenti online che gestisce il Persuasive Technology Lab di Stanford. Secondo Fogg i social media “hanno profondi effetti comportamentali perché agiscono su stimoli mentali significativi”, e identifica “il ‘design persuasivo’ nel fulcro delle motivazioni di una persona, della sua abilità o capacità di agire e degli stimoli specifici che la possono spingere a intraprendere specifiche azioni”. Come commentare, mettere un mi piace, condividere e scorrere, scorrere finché siamo gratificati dalle scoperte che l’algoritmo ha in serbo per noi.
Cosa vuole per noi l’algoritmo? Tendenzialmente, vuol farci vivere una vita sana e produttiva, che sia felice e che contribuisca a un pianeta sostenibile. Molti algoritmi sono progettati per dirigerci in una direzione che, si ipotizza, comporti benefici alle persone come alla società. Ciascun individuo è così ritenuto sempre più responsabile della gestione del proprio benessere, che comprende la salute, e la maniera in cui si invecchia e in cui si finanzia la propria vecchiaia. Per questo scarichiamo app di monitoraggio della salute, indossiamo bracciali che raccolgono dati sulla nostra attività fisica, chiediamo persino alla tecnologia di ricordarci che per stare bene dobbiamo sconnetterci da essa, e ci registriamo a servizi che ci invitano a posare il telefono per far crescere foreste di alberi virtuali. “Pensiamo che queste app ci permettano di gestire al meglio le nostre vite, quando invece sono loro che le gestiscono per noi, ottimizzandole in base agli interessi del sistema che le ha prodotte”.
Così, diveniamo consapevoli della presenza algoritmica solo quando c’è una deviazione dallo standard, quando la normalità viene interrotta da un problema. Il meteo che indica pioggia in una giornata di sole, un film che non guarderemmo nemmeno sotto tortura eppure è tra le prime opzioni proposte da Netflix, la promozione di un prodotto per concepire più velocemente solo perché siamo in età da riproduzione, ma in realtà non abbiamo alcuna intenzione di avere figli. La conferma arriva anche dai ricercatori di Algocount (algorithm accountability, responsabilità dell’algoritmo), progetto dell’università statale di Milano realizzato insieme al laboratorio Density Design del Politecnico di Milano in collaborazione con il Museo Nazionale Scienza e Tecnologia. Il team, guidato dal docente di sociologia Alessandro Gandini, ha creato cinque focus group per osservare il modo in cui le persone interagiscono con gli algoritmi di raccomandazione. L’esistenza dell’algoritmo è percepita principalmente in caso di glitch, errori o risposte inaspettate e fuori dall’ordinario da parte delle app, come consigli per l’acquisto di prodotti che non ci servono o per cui ci sentiamo fuori target.
Oppure, quando in vacanza decidiamo di rinunciare alla spiaggia credendo al meteo avverso, e invece inaspettatamente le nuvole fanno spazio a una giornata di sole. Algoritmo, guarda cosa hai fatto! Usare le app del meteo per capire come funzionano gli algoritmi di predizione è utile per entrare nelle scatole nere che decidono molti aspetti della nostra vita e che potremmo ritrovarci in ambiti ancora esclusi, per il momento, dalla volontà algoritmica.
Inaffidabilità algoritmica
Le previsioni metereologiche si basano sull’enorme quantità di dati raccolti sullo stato dell’atmosfera e della superficie terrestre, come la temperatura, l’umidità e le condizioni del vento. Si tratta di dati satellitari, dati raccolti al suolo, radiosondaggi, cioè misurazioni fatte da strumentazioni agganciate a un pallone sonda rilasciato in atmosfera, o su aerei e boe. Tutti questi dati vengono immessi in supercomputer in grado di eseguire mille trilioni di calcoli al secondo, che alimentano modelli di previsione diventati sempre più complessi con l’avanzare della scienza. Il fatto di disporre di più dati, avere computer più grandi e algoritmi più efficienti, ha prodotto miglioramenti impressionanti e questo è valido tanto per il meteo quanto per le applicazioni nell’economia, nei social, nella giustizia.
Uno studio pubblicato su «Nature» nel 2015 e riportato dal «Guardian» ha osservato che la capacità dei meteorologi di prevedere le pressioni atmosferiche da tre a dieci giorni in anticipo è migliorata al ritmo di un giorno per decennio dal 1981. Allora come mai il nostro gruppo di quattro, una volta arrivato nella città da visitare, ha trovato il sole invece che la pioggia annunciata?
Alcune app forniscono semplicemente previsioni di modelli informatici, altre impiegano meteorologi o previsori, come si chiamano in gergo, che facciano opera di supervisione e correzione, specialmente in condizioni meteorologiche insolite o estreme. È ad esempio il caso dell’app sviluppata dalla sede piemontese dell’Agenzia regionale per la protezione ambientale, che funziona per i territori di Piemonte, Valle d’Aosta e Liguria. Qui i dati vengono aggiornati man mano dal previsore, quotidianamente, dopo aver consegnato le prime informazioni alla Protezione Civile per i bollettini di allerta meteo.
Le classiche app meteo invece funzionano con un modello deterministico per i primi sette giorni, mentre dall’ottavo si basano su un modello probabilistico, con modelli diversi elaborati insieme, in cui viene stabilita la probabilità di accadimento dell’evento.
Non saltate queste righe: ricordiamoci che per non restare passivi davanti alle scelte algoritmiche non dobbiamo trattare la tecnologia come l’incantesimo dell’apprendista stregone, bensì come un insieme di regole messe insieme da esseri umani, che definiscono il modo in cui il software sfrutterà i dati – a loro volta sempre selezionati da altri esseri umani – usati per rispondere a una domanda di partenza.
Sfrutto proprio un articolo del Laboratorio di Monitoraggio e Modellistica Ambientale per lo sviluppo sostenibile della regione Toscana e del CNR (Centro Nazionale delle Richerche), per spiegare la differenza tra i due modelli:
Le previsioni di tipo probabilistico si basano sul concetto di incertezza che è una caratteristica fondamentale del tempo meteorologico e del clima. Ogni previsione meteorologica, non solo a breve o medio termine (1-5 giorni) ma soprattutto a lungo termine (6-15 giorni), risulta più completa se riporta una descrizione della sua incertezza. L’incertezza è legata principalmente a due elementi: al tipo di fenomeno che si vuole prevedere, ovvero alla sua predicibilità, e alla non-linearità del sistema terra-oceani-atmosfera, che è essenzialmente un sistema caotico. […] I modelli deterministici compiono una singola corsa o simulazione (comunemente denominata “run”) con lo stato iniziale più “verosimile” (analisi) e determinano in uscita un valore univoco di ogni variabile meteorologica fondamentale; mentre i modelli probabilistici compiono un elevato numero di simulazioni (denominate “membri”) partendo da condizioni iniziali leggermente diverse; i risultati vengono elaborati statisticamente in modo da ottenere una “situazione media” e l’indicazione della “dispersione” degli altri membri rispetto alla media (deviazione standard o spread) e ne indica proprio l’incertezza.
Usciamo adesso dalla metafora metereologica e torniamo alle app che ci raccomandano azioni, musica, film, acquisti: anche quando le previsioni dell’intelligenza artificiale sono probabilistiche, nella pratica vengono spesso interpretate come deterministiche, in parte perché come esseri umani abbiamo difficoltà a capire la probabilità e in parte perché gli incentivi per evitare il rischio finiscono per rafforzare la previsione. Ad esempio, se si prevede che una persona abbia il settantacinque per cento di probabilità di essere una cattiva dipendente, le aziende non vorranno correre il rischio di assumerla quando hanno candidature con un punteggio di rischio inferiore.
I dati, che sono alla base di tutti i modelli, riguardano il passato, anche nelle app metereologiche. I dati vanno costruiti, non si trovano in natura, e ogni step che ci porta a cliccare un link di acquisto, valutare una risorsa umana, osservare preoccupati un’icona a forma di fulmine sul telefono, è stato pensato, progettato, realizzato da esseri umani.
I dati sono costrutti sociali, così come gli algoritmi, e senza interventi correttivi, o se mancano trasparenza e regole chiare sul loro funzionamento, le conseguenze possono essere anche peggiori rispetto a quelle di una giornata di vacanza passata sotto la pioggia.
“Le previsioni non sono innocue” scrive la docente di Filosofia Carissa Veliz su «Wired», perché “l’uso estensivo dell’analisi predittiva può persino cambiare il modo in cui gli esseri umani pensano a sé stessi”, ed è una tesi sposata con convinzione anche da Helga Notwoty: “Cosa succederà allora quando gli algoritmi cominceranno a narrare o rinarrare le storie per noi? E se seguissero e condividessero con entusiasmo delle narrazioni progettate per influenzare ciò che facciamo e come pensiamo?”. Notwoty cita i video deep fake, video in cui è possibile, grazie all’intelligenza artificiale, creare clip con protagoniste persone famose a cui associare discorsi audio che non hanno mai pronunciato, ma come non pensare anche a software come Midjourney e Dall-e, che creano immagini, infografiche e fotografie molto realistiche ma del tutto inventate, generate da un input di testo?
Ancora con Véliz:
La ricerca in psicologia ha dimostrato che minare la fiducia delle persone nel libero arbitrio aumenta l’inganno, l’aggressività e il conformismo e diminuisce i comportamenti utili e i sentimenti positivi come gratitudine e autenticità. Più utilizziamo l’analisi predittiva sulle persone, più concettualizziamo gli esseri umani come nient’altro che il risultato delle loro circostanze e più è probabile che le persone si sentano prive di azione e impotenti di fronte alle difficoltà.
Fidarsi ciecamente degli algoritmi significa lasciare che creino la realtà insieme a noi. Se in alcuni casi è un processo fruttuoso, in altri si rischia che il passato determini in modo esclusivo le opportunità di una singola persona di evolvere in un futuro diverso da quello predetto dalla tecnologia.
Nel libro Armi di distruzione matematica Cathy O’Neal racconta del caso in cui usare un metodo tecnologico, e quindi matematico, per risolvere un problema sociale era stato dannoso per tutti: il licenziamento di validi insegnanti a causa del modo in cui era stato progettato l’algoritmo di valutazione del loro lavoro nell’ambito dell’iniziativa No Child Left Behind, poi dismesso nel 2015. Il sistema valutava l’insegnante a seconda dei voti della classe, e così facendo ignorava il contesto familiare, economico, persino l’infrastruttura scolastica, in tutto il processo di apprendimento avvenuto, dando unicamente all’insegnante la responsabilità del risultato finale. “Ciascuno studente aveva una previsione di punteggio. Se andava oltre questa previsione, l’insegnante otteneva un giudizio positivo. In caso contrario, l’insegnante si prendeva la colpa” spiega O’Neal.
“Ho visto insegnanti convincersi di essere a dir poco mediocri, per via di questi punteggi,” racconta l’insegnante protagonista del caso analizzato dalla ricercatrice. “Li hanno distolti dalle ottime lezioni che erano abituati a tenere, inducendoli a insistere di più sulla preparazione ai test. Per degli insegnanti giovani, un basso punteggio a valore aggiunto è penalizzante, mentre un punteggio positivo potrebbe indurli a pensare di essere ‘arrivati’, quando invece non è così”.
Nei casi peggiori, chi del corpo docente aveva capito il funzionamento dell’algoritmo dovette ‘ingannarlo’ dando voti più alti ai test finali, inquinando così i risultati ma soprattutto evitando il licenziamento. Come commenta efficacemente Christian Rudder in Dataclisma: “Per sconfiggere la macchina, devi agire come una macchina, il che significa che sei stato sconfitto dalla macchina”.
Interessante, ben scritto e divulgabile in Fb
[…] L’algoritmo è una mano invisibile che governa le nostre vite? Può decidere al posto nostro, modificare la rappresentazione di una categoria di persone, radicalizzare rappresentazioni del mondo, ma come principale scopo ha quello di massimizzare il tempo che l’utenza passa su app e dispositivi. Continua a leggere… […]
Molto interessante