La storia della nascita – e dell’affermazione – della computer art.


(Questo testo è la traduzione italiana di un articolo precedentemente uscito su Aeon sotto licenza Creative Commons)

di Oliver Roeder

Nel dicembre del 1964, il musicista jazz John Coltrane, insieme al suo quartetto, registrò in una sola serata a Englewood Cliffs, nel New Jersey, l’intero A Love Supreme. Il disco vendette milioni di copie ed è considerato ancora oggi il capolavoro di Coltrane, il culmine del suo risveglio spirituale. Ciò che il disco rappresenta è fin troppo umano: una risalita verso l’uscita dalla tossicodipendenza, una devota ricerca personale, una lode a Dio.

Ancora nel New Jersey, ma cinquant’anni dopo e cinquanta miglia più a sud, Ji-Sung Kim, dopo più di 12 ore passate nutrendosi solo di energy drink “Monster” in una cameretta a Princeton, scriverà un algoritmo capace di insegnare a un computer a suonare del jazz. Kim, ventenne di Princeton, fece tutto di fretta – visto che aveva un esame la mattina dopo. Eppure il progetto di rete neuronale, che Kim ha chiamato deepjazz, (è sviluppato su GitHub) ha attirato un bel po’ di attenzioni – soprattutto in Giappone – con più di 100.000 ascolti su SoundCloud – e un po’ di scetticismo dai commenti di Hacker News.

In quest’ultima metà di secolo, incastonata tra ottone, sassofono e codice Python, si è vista una grande crescita della musica (e dell’arte visiva di ogni genere) generata via computer. La computer art però, nell’era dei big data e del deep learing, è una mera questione di algoritmi. Ci troviamo così a dover abbracciare (o picchiare, o accarezzare) la computer art – sia che la si voglia combattere sia che invece la si voglia accogliere.

Nell’industria, c’è una forza algoritmica molto evidente: “Efficienza, capitalismo, commercio!” che combatte contro “i robot stanno rubando i nostri lavori”. Ma per l’arte algoritmica, la tensione è più debole. Stando a quanto riportato dalla società di consulenza McKinsey & Company, solo il 4% del lavoro svolto nell’economia statunitense richiede “creatività umana”. Così, per la computer art – che cerca esplicitamente di puntare su questo piccolo pezzo di torta vocazionale – non è tanto una questione di efficienza o di equità, ma di fiducia. L’arte richiede investimenti emotivi frenetici, offrendo in cambio la promessa di condividere una fetta di esperienza umana. Quando vediamo la computer art, la paura che ci tormenta è: chi c’è dall’altra parte del dispositivo?  Un essere umano? È così che ci preoccupiamo del fatto che quella che abbiamo davanti non è davvero “arte”.

La promessa degli algoritmi possiede un certo fascino pop. Facendo una ricerca per la parola “algoritmo” nelle pagine web del sito FiveThirtyEight (a cui lavoro io stesso come parte dello staff) mentre scrivo questo articolo si ottengono 516 risultati. Ed io sono personalmente responsabile di alcuni di questi. Nell’era dei big data, gli algoritmi sono pensati per trattare malattie, prevedere le decisioni della Corte Suprema, rivoluzionare lo sport e addirittura prevedere la bellezza dei tramonti. In futuro sapranno anche, si dice, impedire i suicidi, migliorare la qualità della rucola, predire la cattiva condotta della polizia e dire se un film sarà un flop.

Le più grandiose applicazioni per gli algoritmi e l’intelligenza artificiale (IA) sono spesso precedute da banchi di prova più gestibili, come i giochi. Prima che il computer “risposta-domanda” della IBM, Watson, possa trattare i tumori, ad esempio, andrà al quiz televisivo Jeopardy! AlphaGo, bot di Google, ha sfidato un campione di Go in una “grande sfida” per un’IA. Ma questi passi non sono soltanto banali banchi di prova, anzi, possono essere considerati come veri e propri affronti all’umanità. Un commentatore, rendendosi conto che il programma di Google avrebbe vinto la partita, ha detto che “si sentiva male fisicamente”.

La questione è molto simile coi progetti di computer art. Kim e il suo amico Evan Chow, il cui codice è utilizzato in deepjazz, sono entrambi membri della più giovane generazione di un lungo filone di “computer artist”. (I due non sono esattamente i classici artisti indigenti, visto che nell’estate del 2016 Kim già lavorava per Merck e Chow per Uber). Mentre me ne stavo seduto con loro in uno stand di legno del Cafe Vivian, nel campus di Princeton, c’era dell’umanissimo jazz che suonava dagli altoparlanti, si trattava del frenetico ‘Pedal Up’ di Rahsaan Roland Kirk, del 1973. Però quando Kim mi ha fatto sentire dei sample generati da deepjazz dal suo portatile, ci siamo immersi in uno strano momento di jazz che si sommava ad altro jazz. Risultato? Jazz, ovviamente.

«L’idea è abbastanza radicale», mi dice Kim mentre cerco di decifrare ciò che c’è di umano tra i suoni cacofonici: «È possibile utilizzare un’IA per creare arte, si tratta del normale processo che noi pensiamo essere immutabilmente umano». Kim è d’accordo che deepjazz, e la computer art in genere, sia spesso un terreno di prova, ma ci ha visto dei fini oltre che dei mezzi. «Non intendo usare la parola “distruttivo”», ha detto, e ha aggiunto: «è assurdo come un’IA possa modellare l’industria musicale» immaginando un’applicazione basata sulla tecnologia come lo è deepjazz. «canticchi una melodia e il telefono ne riproduce la tua versione personalizzata, una vera e propria canzone generata via intelligenza artificiale».

Come startup no-profit, il valore di molti progetti di computer-art fino ad ora consiste nel loro potenziale, dal loro essere delle “promesse”. Il demo pubblico di deepjazz è limitato, e improvvisa solo una canzone, “And Then I Knew” (del 1995) dei Pat Metheny Group (Kim non era abbastanza sicuro di come pronunciare “Metheny”). Ma il codice è pubblico, ed è stato modificato, ad esempio, per riprodurre la sigla di Friends.

Naturalmente il terremoto delle potenzialità dei calcolatori non ha fatto tremare solo la musica jazz, e non solo per via di deepjazz – la giga e il folk, la musica polifonica, così come tanti altri generi sono passati attraverso il “suono algoritmico”.

Anche l’arte visiva è pervasa dagli algoritmi ormai da decenni. Già nel 1966 due ingegneri crearono questa immagine – probabilmente il primo “nudo di computer” – all’interno dei Bell Labs di Murray Hill, nel New Jersey – geograficamente da qualche parte tra Coltrane e Kim. Il pezzo è stato esposto al Museum of Modern Art già due anni dopo, nel 1968.

Pochi anni prima, era il 1965, il New York Times esaminò una delle prime mostre di computer (solo pochi mesi dopo la sessione di registrazione di Coltrane), caratterizzata dal lavoro dei due scienziati e un computer IBM #7094, in una galleria di New York, che oggi oramai ha chiuso i battenti: “finora il mezzo è più interessante dei risultati”, scrisse il Times. Ma la recensione, di Stuart Preston, continua a colpire nel segno per il suo tono sorprendentemente entusiasta:

Non importa quale sia il futuro – e gli scienziati prevedono un tempo in cui quasi tutti i tipi di pittura potranno essere generati dal computer – il tocco reale dell’artista non giocherà più alcun ruolo nella realizzazione di un’opera d’arte. Quando arriverà quel giorno, il ruolo dell’artista consisterà nella formulazione matematica, l’organizzazione di una serie di punti in dei gruppi, un modello desiderato. Da allora in poi tutti saranno affidati al deus ex machina. Liberato dal tedio della tecnica e dalla meccanica dell’immagine, l’artista semplicemente “creerà”.

La macchina è solo il pennello – è l’essere umano a gestirlo. Infatti esistono esempi di computer capaci di aiutare i musicisti nell’atto del semplice “creare”.

Emily Howell, ad esempio, è un programma informatico. Una creazione degli anni Novanta di David Cope, professore emerito all’Università della California a Santa Cruz, “nata dalla lotta e dalla frustrazione dello stesso Cope per finire un’opera propria”. Le composizioni di Emily Howell sono sempre eseguite da musicisti umani.

Si potrebbe dire che questa musica è passabile. E potrebbe anche essere “buona”, per me di sicuro sta nella parte giusta dei prodigi del nostro tempo. Ma la cosa che la rende più interessante, almeno per me, è il fatto che sia stata composta da un computer, mi interessa questo come medium – un’amplificazione dell’espressione artistica di Cope, piuttosto che una sublimazione. Ma la tensione persiste.

Mi è capitato di imbattermi anche in altri casi sorprendenti: per dirne uno, l’opera di Manfred Mohr, un pioniere dell’arte algoritmica, lui stesso un musicista jazz (umano, si intende), oltre che artista visivo. In particolare il suo dipinto, P-706/B (2000), basato su un ipercubo a sei dimensioni. Ho passato l’ora successiva a leggere di Mohr, l’essere umano.

Courtesy Manfred Mohr

Talvolta nella “computer music” succede anche il contrario: gli umani scelgono la melodia, ed è il software a ballarci sopra. Tra l’altro in un caso di questi il mercato si è espresso in modo molto chiaro. Il vocaloid è un sintetizzatore, sviluppato da Yamaha, che permette di sintetizzare la voce partendo da testo e melodia che è stato antropomorfizzato dalla società giapponese Crypton. Un Vocaloid molto popolare si chiama Hatsune Miku (il nome si traduce in “il primo suono del futuro”), e ha da poco condotto con successo (era il 2016) un tour in nord America, dove Miku è apparsa come un ologramma, godibile per 75 dollari a biglietto al Hammerstein Ballroom di New York. Miku è una vera e propria pop star, e anche se non è umana anche lei è apparsa al celebre Late Show di David Letterman.

Quindi capita sempre più spesso che non siano solo hacker da cameretta e accademici da clausura a sfruttare la computer art per mostrare il loro talento o per poter firmare pubblicazioni scientifiche. Il mese scorso, il team di Google Brain ha annunciato Magenta, un progetto per utilizzare il machine learning proprio per i fini descritti sin qui e ha posto la domanda: “Possiamo usare il machine learning per creare opere d’arte e musica di qualità?”. La risposta è già piuttosto chiara: Sì. Il progetto segue le orme del Deep Dream Generator di Google, che ripropone immagini in modi artistici, sognanti (o anche da incubo), usando reti neurali.

Ma la verità, alla fin fine, è che tutto questo è in qualche modo un’inutile costruzione: una distinzione che facciamo esistere senza che definisca alcuna differenza. La “computer art” non esiste in nessun modo che non sia lo stesso per cui ha senso parlare di “arte pittorica” o “piano art”. Il software algoritmico è stato scritto da un essere umano, usando le teorie pensate da un essere umano, utilizzando un computer costruito da un essere umano, usando specifiche informazioni scritte da un essere umano e utilizzando materiali raccolti da un essere umano, ovviamente in una compagnia di altre persone che hanno utilizzato strumenti costruiti da esseri umani. E così via. La “computer art” è arte umana – un suo sottoinsieme piuttosto che una distinzione. Dovremmo tutti rilassarci e tirare un respiro di sollievo.

Un altro commentatore, dopo aver assistito al programma che ha battuto il campione umano al gioco del Go, si è sentito rinvigorito e ha colto un punto di vista diverso: “Un risultato straordinario per la tecnologia e i complimenti vanno alle incredibili capacità del cervello umano”. Così è anche con l’arte prodotta via computer. Si tratta di un’estensione del cervello umano – proprio come le pitture a olio e il suono di un sassofono.


Oliver Roeder è redattore di ESPN’s FiveThirtyEight, dove scrive di videogiochi, sport, Corte Suprema, giustizia criminale e sottoculture. Vive a Brooklyn, New York.
Traduzione di Enrico Pitzianti.
In copertina: Paul Maximilian Schmitz-Moormann
.

Aeon counter – do not remove