Recentemente il polo museale Tate ha conferito l’IK Prize 2016, un riconoscimento che celebra la creatività nel mondo digitale, al progetto basato sull’intelligenza artificiale ‘Recognition’, realizzato da una squadra di Fabrica, il centro di ricerca di Benetton Group. Per saperne di più, l’Indiscreto ha intervistato i vincitori del premio, Angelo Semeraro, Coralie Gourguechon e Monica Lanaro.

Tate_presents_team_colours_sitoFrancesco D’Isa: Leggo che «RECOGNITION userà algoritmi complessi di “machine learning” per svelare, all’interno della vasta collezione digitale di Tate e negli archivi di news fotografiche, le relazioni nascoste tra le rappresentazioni visive del mondo nel passato e nel presente. Il pubblico potrà osservare la macchina al lavoro mentre questa metterà a confronto composizione, stile e soggetto, producendo online un flusso di immagini curate dall’algoritmo.». La vostra ricerca si rifà ai “sogni” delle reti neurali di Google e alla recente ricerca dell’università di Tubinga dove alcuni studiosi hanno sviluppato degli algoritmi in grado di rielaborare le immagini in base allo stile di pittori del passato?

Angelo Semeraro, Coralie Gourguechon e Monica Lanaro: Di sicuro questi due casi di studio hanno ispirato la nostra ricerca e ci hanno permesso di capire come un’intelligenza artificiale vede il mondo e come lo trasforma in informazione. Tuttavia, il nostro primo interesse è stato quello di utilizzare un metodo scientifico, e di per sé oggettivo, in un campo artistico, confrontando due mondi (quello dell’arte e quello delle news) e svelando analogie tra il passato e il presente. Nel rapporto tra intelligenza umana e la sua rappresentazione algoritmica, troviamo affascinante come un AI, processando una grande quantità di dati, possa sviluppare la capacità tipica della percezione umana di confrontare due entità legate a contesti e media diversi e farci vedere il mondo oggi con occhi diversi.

Se ho ben capito, l’applicazione di questa intelligenza artificiale non è a fini rappresentativi come quella sopracitata, né di “semplice” riconoscimento, come quella di Google. Con una metafora, mi sembra che si tratti più dell’AI di un critico d’arte, perché confronterà diverse opere (in questo caso quelle della TATE e l’archivio di fotogiornalismo). Il risultato, immagino, sarà un’immensa rete di analogie e differenze tra opere d’arte e fotografie documentarie. Mi domando però se il senso che darete all’algoritmo risieda, oltre che nel risultato della sua ricerca, nell’effetto che questa farà sull’AI. In breve, RECOGNITION potrà imparare?

Durante la fase di ricerca abbiamo capito che l’apprendimento è un’area di ricerca a sé dove emergono nuove domande tra cui: quale input ha senso che sia preso in considerazione dall’algoritmo? E’ l’uomo a fornire questo input? Se si, come avviene? Come questo influenzerà il processo decisionale dell’AI? Si tratta dunque di una parte sperimentale nella nostra ricerca e, di conseguenza, non abbiamo ancora una risposta alla tua domanda ma stiamo lavorando molto per averla presto.

Nell’analizzare le immagini, RECOGNITION utilizzerà delle regole percettive per osservare forme e colori, come quelle della Gestalt in psicologia, o le svilupperà autonomamente a partire dai dati statistici?

L’affinità estetica rappresenta solo una delle aree di ricerca che vorremmo esplorare. Nello specifico, attraverso il confronto dei metadati presenti nei due database di riferimento (l’archivio digitale della Tate e le API fornite dalle Agenzie di stampa), è possibile svelare affinità nel soggetto e nel contesto di quello che è rappresentato nelle due immagini, creando confronti che vanno oltre forma e colore e che permettono un’analisi del contenuto.

Vi pongo una domanda un po’ fantascientifica. Le reti neurali che ha sviluppato Google per il riconoscimento delle immagini, se applicate a immagini prive di senso (come il white noise), possono “trovare/creare” immagini simili a quelle che hanno appreso. Insomma, una volta imparato “il gatto” la rete neurale può “gattizzare” il mondo. Credete che sia possibile sviluppare un’AI più complessa, che a forza di vedere immagini che gli uomini giudicano “belle” è in grado di riconoscere – o addirittura creare – il bello? Oppure l’elevato numero di variabili e significati in gioco nella “bellezza”, che spazia da un paesaggio all’orinatoio di Duchamp, rende il compito troppo complesso?

Saltando a piè pari le secolari discussioni sul significato del bello (i filosofi ci perdonino), ad oggi l’AI può imparare a distinguere stili e gusti e riprodurli in modo sorprendente (vedi il progetto “The next Rembrandt”), riesce in altre parole a imitare ciò che dall’uomo è già stato catalogato e classificato. Questa tecnologia è un meccanismo di mimesis complesso, dove l’output non è necessariamente una copia dell’oggetto, ma un delicato equilibrio di parametri che possono essere ri-assemblati coerentemente.

Per tornare alla tua domanda, l’AI può essere  in grado di imitare il bello per come inteso nella storia dell’arte visiva.

Se l’algoritmo venisse “nutrito” con informazioni relative allo storico dei dati delle mostre più amate dal pubblico, commenti on line, numero di repliche delle opere in digitale e non, risultati delle aste, riproduzioni su merchandising e via dicendo, l’AI potrebbe imparare a capire qual è il gusto statisticamente più diffuso attraverso le coordinate spazio temporali. Se dovessimo azzardare un risultato, probabilmente il pittoresco avrebbe la meglio su Hermann Nitsch, ma non necessariamente sul nudo, che sia classico o meno.

1154

Questo quadro che sembra di Rembrandt lo ha fatto un’AI che copia Rembrandt

Se mi avete seguito nella domanda precedente posso osare di più: il passaggio successivo è quello di un’AI che sviluppi un proprio gusto estetico. Questa è pura fantascienza, ma come potrebbe essere il gusto di un’AI, se non viene necessariamente allineato ai parametri umani?

Questa è difficile.

Il grosso problema di questa ipotesi è che la macchina indica una preferenza, un gusto, in risposta ad una domanda. Semplificando, trova la X che soddisfa la regola. Ad oggi il risultato dell’azione dell’AI è conseguenza della somma dei dati forniti come input – tuttavia i risultati non sono così scontati come potrebbe sembrare e quello che sembra ovvio per un AI potrebbe non essere ovvio per un umano e viceversa.

Che aspetto avrà il flusso di RECOGNITION? Cosa vedrà il pubblico, di fatto?

Il progetto avrà due principali output: un sito web e un’installazione presso Tate Britain. I dettagli sono ancora in fase di definizione e il processo di design, dal concept al labor limae, richiede l’embargo fino a data consegna progetto. RECOGNITION è un progetto stimolante da più punti di vista, a livello di progettazione si sta rivelando per noi una preziosa occasione per sperimentare nuove soluzioni di design per la rappresentazione dei flussi di informazioni.

Dalle vostre biografie vedo che siete una squadra ben assortita. Qual è stata la vostra spinta nell’ideazione di RECOGNITION?

Fabrica, il centro di ricerca di Benetton che ci ospita, è il luogo ideale per incontrare persone con diversi background  e incrociare le proprie aree di interesse.

Eravamo in cerca di una sfida, e l’IK Prize (premio di TATE Britain poi assegnato a RECOGNITION) rappresentava un’ottima occasione per mettersi in gioco. Dovevamo trovare le possibili intersezioni tra la collezione di TATE Britain e il mondo dell’intelligenza artificiale, due realtà che abbiamo imparato a conoscere e che ci hanno ispirato nello sviluppo dell’idea. Dalla contemporaneità del tema dell’intelligenza artificiale alla storicità della collezione della Tate. Poi la percezione del museo, dei suoi contenuti, e la percezione del nostro mondo che ci viene dato attraverso le immagini. Da lì è cominciato tutto e adesso lavoriamo intensamente per l’oramai vicina conclusione della fase progettuale.

Grazie ancora per il vostro tempo e gentilezza, buon lavoro!

Grazie mille a te.


Intervista di Francesco D’Isa, con Angelo Semeraro, Coralie Gourguechon e Monica Lanaro (Fabrica).
Immagini (c) Fabrica, Tate, The next Rembrandt.