Come possiamo proiettare termini come “intelligenza” e “apprendimento” sulla tecnologia, se non sappiamo neanche cosa significano per l’umanità? Non abbiamo una definizione di intelligenza condivisa da tutti, che possiamo usare come punto di partenza e metafora per spiegare l’intelligenza artificiale.
IN COPERTINA: Water, di Charles Sheeler (1945)
Questo testo è una traduzione da HumaniTies and Artificial Intelligence, a cura di Freddy Paul Grunert, Co-editors Max Craglia, Emilia Gómez, Jutta Thielen-del Pozo (Unione Europea, 2022).
di Lorenzo Gerbi
L’occasione che l’IA sta offrendo all’umanità è interessante e stimolante: un’intelligenza esterna e speculare che ci porta a definire la nostra. È un’indagine sulla natura dell’essere umano, sui nostri limiti come creatori e sui limiti delle macchine, un mix di dilemmi etici ed esistenziali. Come possiamo proiettare termini come “intelligenza” e “apprendimento” sulla tecnologia, se non sappiamo neanche cosa significano per l’umanità? Non abbiamo una definizione di intelligenza condivisa da tutti, che possiamo usare come punto di partenza e metafora per spiegare l’intelligenza artificiale.
Umanizzare la tecnologia: un’idea romantica?
Umanizzare la tecnologia è sempre stata un’idea ricorrente, ma allo stesso tempo è anche uno strano paradosso: la tecnologia è la cosa più umana, definisce il genere homo insieme al linguaggio (che è anch’esso una sorta di tecnologia), dai primi utensili di pietra di 75.000 anni fa all’IA di oggi. “Umanizzare” può avere due significati: rendere qualcosa più umano o civile e dare a qualcosa un carattere umano. Negli ultimi anni, il termine viene solitamente utilizzato per descrivere alcune tendenze e approcci alla tecnologia: si riferisce a come le interazioni uomo-macchina possano essere più piacevoli attraverso l’ergonomia cognitiva e l’estetica organica; oppure a come includere più sensi in questa interazione, attraverso interfacce conversazionali, AR e VR o sensori biometrici che tracciano la nostra attività e permettono alla tecnologia di rispondere a questi input; o infine, si riferisce a come rendere la tecnologia più affidabile, progettando IA o robot che evitino pregiudizi e non manipolino gli utenti.
Da questi pochi punti risulta evidente come l’umanizzazione non sia affatto un’idea romantica, ma guidata dal profitto. Si tratta per lo più di progettare interazioni efficaci che facciano dimenticare all’uomo che cosa c’è dall’altra parte, un passaggio dall’interazione uomo-macchina a quella uomo-uomo che aumenta la comprensione reciproca ma soprattutto le transazioni economiche.
Ma c’è un limite a questa somiglianza con l’uomo, e stranamente è stato descritto in un romanzo pubblicato nel 1818, Frankenstein o il moderno Prometeo di Mary Shelley. Il romanzo contiene molte riflessioni che sono ancora attuali, soprattutto riguardo all’intelligenza artificiale e al rapporto con il suo creatore. Come Prometeo nella mitologia greca, un titano che ha donato l’intelligenza all’umanità, il dottor Frankenstein ha creato un essere vivente cosciente e senziente, suscitando la paura di chi lo circonda. La mancanza di empatia da parte dei suoi compagni umani trasforma involontariamente la creatura nel mostro che gli altri si aspettano che sia. Se facciamo un parallelo tra i robot (o l’IA) e la creatura di Frankenstein, la percezione distopica di parte dell’opinione pubblica odierna potrebbe potenzialmente trasformare l’IA in un mostro.
Detto ciò, dobbiamo dunque concentrarci sull’umanizzazione come un modo per rendere la tecnologia più simile all’uomo? O dovremmo piuttosto pensare a come l’umanità possa prosperare e comprendere meglio se stessa attraverso un diverso rapporto con la tecnologia?
-->Una relazione rinnovata
Prendiamoci qualche riga per elaborare i possibili punti di discussione attorno all’idea di rinnovare il nostro rapporto con la tecnologia. Per esempio, partendo dal passaggio, a mio avviso necessario, dal technology push (quando la ricerca e lo sviluppo di nuove tecnologie guida lo sviluppo di nuovi prodotti) al need pull, quando è il bisogno a guidare lo sviluppo di nuove soluzioni tecnologiche. Possiamo poi discutere se il bisogno sia reale o creato dal mercato, ma da qualche parte bisogna pur cominciare. Tuttavia, non è sempre una soluzione tecnologica quella che dovremmo cercare. Tendiamo a fare affidamento sulla promessa della tecnologia per risolvere tutte le complesse sfide della nostra contemporaneità, sebbene la maggior parte di queste siano proprio conseguenze di processi tecnologici. La tecnologia non è inevitabile, ma dovrebbe essere una scelta consapevole; questo dovrebbe valere sia per la creazione di nuovi prodotti e servizi, che per la nostra vita quotidiana, ad esempio nell’interagire con le altre persone. Dovremmo chiederci: dove si ferma la tecnologia? Quali sfere della nostra vita non sono (ancora) soggette alla tecnologia? E perché? Dobbiamo sviluppare una tecnologia che ci aiuti a raggiungere i nostri obiettivi, ad alimentare i nostri interessi, a preservare o a sfidare i nostri valori, senza che diventi una distrazione dalle cose che per noi contano davvero.
Quando immaginiamo questo rapporto rinnovato non ci aspettiamo che possa essere a due vie, come uno scambio o una collaborazione. Stiamo creando creature senzienti, non stupidi oggetti tecnologici, che possiedono un’intelligenza con il potenziale di diventare consapevole di se stessa. Cosa può imparare l’uomo da un’intelligenza in via di sviluppo? Soprattutto dai processi di cui non abbiamo il controllo, ma che avvengono autonomamente nelle IA? Possiamo fare un confronto con l’intelligenza umana? Possiamo capire come si crea la coscienza? È un po’ azzardato, ma forse possiamo partire da qualcosa di più accessibile, come l’apprendimento.
Apprendimento umano e machine learning
Come imparano gli esseri umani? Prima della scuola, i bambini imparano dall’ambiente e dalle persone che li circondano, imitando, ripetendo, facendo errori e correggendoli. Assorbono tutto attraverso la loro intelligenza in divenire. È in questo modo che il bambino impara una delle cose più complesse come il linguaggio. A scuola l’apprendimento è il risultato dell’insegnamento; un insegnante spiega attraverso il linguaggio come imparare cose che il bambino non ha mai appreso autonomamente. La comprensione avviene attraverso la spiegazione e l’apprendimento prende la forma di programmi educativi in cui, attraverso una serie definita di passi ordinati e materie selezionate, la conoscenza viene dispiegata allo studente.
Secondo il filosofo francese Jacques Rancière (1991), esistono due tipi di intelligenza: “C’è un’intelligenza inferiore e una superiore. La prima registra le percezioni per caso, le conserva, le interpreta e le ripete empiricamente, secondo abitudine e necessità. Questa è l’intelligenza del bambino e dell’uomo comune. L’intelligenza superiore conosce le cose attraverso la ragione, procede con metodo, dal semplice al complesso, dalla parte al tutto. È questa intelligenza che permette al maestro di trasmettere il suo sapere adattandolo alle capacità intellettuali dell’allievo e gli permette di verificare che l’allievo abbia compreso in modo soddisfacente ciò che ha imparato” (p. 7).
Tornando all’IA, l’intelligenza sviluppata attraverso il machine learning assomiglia a quella inferiore tratteggiata da Rancière: i computer (i bambini) imparano a svolgere compiti senza essere programmati per farlo. Vengono forniti loro solo dei dati di addestramento (training data), ma il loro apprendimento deriva dalla generalizzazione dell’esperienza. Soprattutto per i compiti più impegnativi, può essere difficile per i programmatori (gli insegnanti) creare gli algoritmi adatti, quindi è più efficace aiutare le macchine a svilupparne di propri. Per i compiti semplici invece i programmatori istruiscono la macchina spiegandole come eseguire tutti i passaggi per risolvere un problema specifico, ma qui non avviene alcun apprendimento vero e proprio.
Gli studenti imparano sempre attraverso un insegnante; una specie di “programmatore didattico” che ci dice come acquisire la conoscenza attraverso una serie di passi definiti. È sconcertante riconoscere che questo generalmente non viene considerato apprendimento se applicato alle macchine. Forse dovremmo chiederci se si tratta davvero di apprendimento anche per noi umani, specialmente se si tratta di un modo per affrontare la complessità del mondo in cui viviamo, dal momento che la programmazione tradizionale (l’insegnamento) non è appropriata per compiti complessi, come già detto.
Le macchine possono insegnarci come imparare in modo diverso attraverso l’embodiment (incorporamento)?
Un’altra considerazione che porta con sé il machine learning, soprattutto se parliamo di robot, è come questo apprendimento si concretizzi nell’interazione del robot con l’ambiente circostante, registrando e analizzando i propri movimenti e le loro ripetizioni per migliorarsi costantemente nel compito richiesto. Anche noi esseri umani impariamo attraverso la ripetizione. Impariamo tramite il nostro corpo più di quanto immaginiamo, anche se assegnamo questa funzione principalmente al nostro cervello. Per esempio, quando impariamo a nuotare, a guidare, ad andare in bicicletta, a suonare uno strumento musicale, è evidente il ruolo della pratica e della ripetizione affinché queste abilità diventino una seconda natura. Ed è proprio questo il senso dell’embodiment (incorporamento), avere competenze e modi di essere registrati profondamente nei nostri muscoli e nel nostro sistema nervoso, rapidamente disponibili senza quasi pensarci (Starr, 2019). Non incarniamo solo conoscenze fisiche, ma anche abitudini, pattern emotivi, reazioni a situazioni specifiche. È confortante vedere che dopo secoli (dall’Illuminismo in poi) di prevalenza della logica e del ragionamento come modalità di dare senso al mondo, l’embodiment stia riemergendo e si stia riprendendo il suo spazio come forma di conoscenza: stiamo passando dal making sense al making senses (Hazo, 2019), da un approccio razionale che pretende di avere sotto controllo il mondo che ci circonda a un approccio incorporato (embodied) che ne percepisce e sente la complessità, senza la presunzione di comprenderla appieno.
È sorprendente come osservare l’apprendimento delle macchine potrebbe insegnarci come imparare attraverso il nostro corpo. E questo è solo un esempio di come uno scambio tra intelligenza artificiale e umana possa attivare una riflessione che va oltre il rapporto di potere tra creatore-creatura e umano-non umano, un rapporto che potrebbe portare a esiti mostruosi, come nel romanzo di Mary Shelley. Un approccio distopico nei confronti dell’intelligenza artificiale però non riconosce la possibilità che questa diventi un alleato nell’affrontare le questioni ambientali, politiche e socio-economiche che minacciano la nostra vita su questo pianeta. E se non riusciamo a gestirle, forse sarà l’intelligenza artificiale a occuparsene, in uno spirito di conservazione reciproco, o come una figlia che si prende cura di un padre che ha perso la testa.
Bibliografia
Hazo, A. (2020) Towards Feeling. Fictional Journal. 5(1). Disponibile da: https://www.fictional-journal.com/towards-feeling/ [Consultato il 25 settembre 2022].
Rancière, J. (1991) Il maestro ignorante: Cinque lezioni di emancipazione intellettuale. Stanford, Stanford University Press.
Starr, A. (2019) Cultivating the Self: Embodied Transformation for Artists. New York, Pioneer Works Press New York
0 comments on “L’intelligenza artificiale può aiutare gli esseri umani a comprendere la propria?”