L’ascesa dei Technosapiens

L’essere umano che sta diventando sempre più simile a una macchina. Dal presente degli smartphone al futuro prossimo dei visori in realtà aumentata, fino alle utopie delle interfacce cervello-computer: le tecnologie digitali si stanno fondendo con il corpo umano, creando le condizioni per un’umanità più efficiente, più razionale, più veloce e più misurabile. Ma chi ci guadagna e qual è il prezzo da pagare?


IN COPERTINA: Gian Ruggero Manzoni, Senza titolo (2008) – Olio su tela – Asta Arte Moderna Pananti

Questo testo è un estratto da Technosapiens di Andrea Daniele Signorelli, edito da D Editore, che ringraziamo per la concessione.


di Andrea Daniele Signorelli

Addiction by design

 

La fusione tra essere umano e macchina è già iniziata. Di questo processo, curiosamente, conosciamo l’esatta data d’inizio: 9 gennaio 2007. In quel giorno, il fondatore di Apple Steve Jobs salì sul palco del Moscone Center di San Francisco e pronunciò le seguenti parole: «Ogni tanto, salta fuori un prodotto rivoluzionario e tutto cambia». Mentre parla, tiene in mano un piccolo aggeggio nero e rettangolare: è il primo iPhone.

Steve Jobs aveva perfettamente ragione: da quel giorno, nulla è più stato come prima. Lo smartphone è entrato nelle nostre vite e le ha trasformate al punto che, oggi, se un alieno con la sua navicella sorvolasse la Terra e osservasse gli esseri umani penserebbe che questo dispositivo sia una protesi del corpo. 

Lo smartphone è ciò che ha dato il via all’integrazione della tecnologia nel corpo umano; mettendo a disposizione di ciascuno di noi uno strumento costantemente connesso alla rete e sempre a portata di mano. Le barriere che, ancora con il pc, rendevano la tecnologia qualcosa di distante dal nostro corpo, che andava fisicamente raggiunta (anche solo sedendosi davanti al computer posto sulla scrivania), sono state abbattute. La mobilità ha permesso all’integrazione della tecnologia digitale nel corpo umano di compiere un primo cruciale salto qualitativo, dando inizio a un processo di fusione che, ormai, si sta delineando con una certa chiarezza e che ci permette di vivere contemporaneamente nel mondo reale e nel mondo digitale, in qualunque momento e ovunque ci troviamo.

Non c’è quindi da stupirsi se – stando ai dati raccolti dalle società di analisi – le persone utilizzano in media i loro dispositivi mobili circa 4-5 ore al giorno (cifra raddoppiata dal 2014 a oggi). Un tempo lunghissimo, ma spezzato in una miriade di brevi intervalli di tempo: uno studio risalente al 2013 mostrava come i millennials controllassero i loro smartphone oltre 150 volte al giorno; una ogni dieci minuti.

In poche parole, l’intera società – in poco più di dieci anni – è diventata dipendente dagli smartphone. E così, proviamo a imporci delle restrizioni: “Per le prossime due ore non darò nemmeno un’occhiata a Instagram. Anzi, non controllerò proprio lo smartphone”. Arriviamo a portarlo in un’altra stanza e ad abbandonarlo lì, con la modalità silenziosa, nella speranza che almeno la distanza fisica ci impedisca di accendere il display in continuazione per poi perderci in uno scroll compulsivo e stolido. Ma neanche le misure più drastiche hanno successo. La tentazione di controllare se qualcuno ci ha scritto su WhatsApp o menzionato su Facebook è troppo forte: e se mi stessi perdendo qualcosa di importante? Se mi fosse arrivata un’email urgente di lavoro? Mi avrà poi risposto quel tizio su Messenger? Ogni scusa è buona: tempo dieci minuti e ci ritroveremo, senza nemmeno accorgercene, con lo smartphone di nuovo in mano.

Che la pervasività, potenza e rapidità con cui questo strumento si è imposto nelle nostre vite portasse con sé – oltre agli innegabili vantaggi – anche degli effetti collaterali era inevitabile e in parte prevedibile. È più sorprendente constatare che tutto ciò non è un risvolto negativo imprevisto. Al contrario: lo smartphone e il suo alleato più potente, i social network, sono stati progettati esattamente per promuovere un uso che ci rende quasi impotenti al loro cospetto. La dipendenza da smartphone di cui la società è vittima è stata attentamente progettata dagli stessi ingegneri della Silicon Valley che hanno ideato questi strumenti. Lo smartphone e i social network, in poche parole, sono addictive by design.

«Personalmente, non penso che le compagnie che progettano social media abbiano volutamente costruito piattaforme che creano dipendenza», ha spiegato in un’intervista il professor Adam Alter, autore di Irresistibile: come dire no alla schiavitù della tecnologia. «Dal momento che sono tutte in competizione per conquistare la nostra (limitata) attenzione, sono però costantemente alla ricerca di nuovi modi per rendere la nostra esperienza social sempre più coinvolgente».

Ma perché gli smartphone e i social network riescono così efficacemente nella loro missione? Per capirlo, bisogna tornare parecchio indietro nel tempo. Immaginate di essere un uomo delle caverne che deve regolarmente andare a caccia di cervi o di cinghiali per nutrire sé stesso e la sua famiglia. La caccia è faticosa, può impiegare ore o anche giorni. Dopo un po’, la stanchezza si fa sentire, assieme a fame e sete. Le gambe sono pesanti. Il nostro corpo ci sta suggerendo di lasciar perdere, di sdraiarci e riposarci un po’. All’improvviso, un cinghiale compare a una certa distanza: d’un tratto, non sentiamo né sete né stanchezza, ma solo il desiderio di conquistare la preda. Nel momento in cui scocchiamo la freccia e colpiamo l’animale, una scossa attraversa tutto il corpo.

La rinnovata energia che ci ha permesso di scordare per qualche minuto la stanchezza è legata a una sostanza prodotta dal nostro cervello: la dopamina, un neurotrasmettitore che è alla base della motivazione e che si pensa sia stato sviluppato dal cervello proprio per spronarci alla caccia e facilitare così il sostentamento. Conquistare un obiettivo scatena infatti il rilascio di dopamina, facendoci avvertire una scarica di piacere che rappresenta, dal punto di vista neurologico, la vera ricompensa per aver portato a termine il nostro compito. 

Nonostante sia coinvolta in moltissime attività, tutto ciò che riguarda la motivazione e la ricompensa in qualche modo coinvolge la dopamina. E i social media hanno imparato a sfruttare nel modo migliore il nostro bisogno di andare a caccia di ricompense per uno scopo che con la sussistenza non ha niente a che fare: controllare quante più volte possibile Facebook, Instagram, Snapchat, Twitter, WhatsApp, le app dedicate alle email e tutti le altre piattaforme; creando, in sintesi, la dipendenza da smartphone e social network.

L’ex designer di Google Tristan Harris, in un lungo saggio pubblicato su Thrive Global, ha spiegato il funzionamento di questo meccanismo sfruttando il concetto psicologico delle “ricompense variabili intermittenti”. Immaginate una slot machine: tirare la leva rappresenta l’azione intermittente, dopodiché attendiamo qualche secondo che le rotelline che compongono le varie combinazioni smettano di girare e, infine, scopriamo se abbiamo vinto o perso (e quindi se abbiamo ottenuto una “ricompensa variabile”). Ogni volta che vinciamo, il nostro cervello produce dopamina. Ogni volta che perdiamo, facciamo fatica a resistere alla tentazione di giocare di nuovo, nella speranza di conquistare la nostra ricompensa e provare quella brevissima sensazione di piacere. 

Questo meccanismo, che è alla base della ludopatia, è stato riprodotto nell’ambiente degli smartphone. Ma invece della combinazione vincente della slot machine, ciò di cui andiamo a caccia sono i like su Instagram, i retweet su Twitter, ma anche le notifiche relative alle mail di lavoro o ai messaggi su WhatsApp. In effetti, spiega sempre Tristan Harris, molte di queste app sono progettate proprio come le slot machine. Per aggiornare la mail su iPhone, per esempio, dobbiamo “tirare” verso il basso, osservare la rotellina dell’aggiornamento che inizia a girare e dopo qualche secondo ricevere la nuova mail: hai vinto! Se non abbiamo ottenuto il premio questa volta, saremo maggiormente motivati a controllare a breve, nella speranza di ottenere la nostra ricompensa variabile intermittente.

Da questo punto di vista, una delle innovazioni più riuscite è il tasto “mi piace” su Facebook, diventato nella sua semplicità, come spiega ancora il professor Alter, “una fonte inesauribile di feedback sociali”. Dopo aver pubblicato qualcosa su Facebook, è difficile resistere alla tentazione di controllare in continuazione lo smartphone per vedere se c’è qualche nuovo like o commento. Quando l’agognata notifica compare, riceviamo una scarica di soddisfazione così breve da creare dipendenza, spingendoci a controllare lo smartphone in continuazione.

Questi sono i modi più evidenti in cui i social media sfruttano il nostro bisogno di ricompense. Altri, invece, sono meno visibili. Quando apriamo Twitter, il feed che ci appare non è ancora aggiornato: siamo noi che dobbiamo cliccare un tasto, osservare i nuovi post che scorrono rapidissimi e poi vedere se c’è qualcosa di interessante o addirittura una nuova notifica (dopamina!).

Non è tutto: altri metodi per catturare il nostro tempo si basano su concetti psicologici come quello della “reciprocità sociale”. È per fare leva su questo bisogno che WhatsApp ha introdotto le spunte blu che avvisano quando qualcuno ha letto un messaggio, perché la “reciprocità sociale” ci spingerà a rispondere più rapidamente, e poi a controllare lo smartphone per vedere se il nostro interlocutore, a sua volta, ha visto il messaggio e sta rispondendo. E perché vediamo dei puntini che si muovono quando su Facebook o Messenger qualcuno sta rispondendo a un nostro post o messaggio? Perché in questo modo saremo spinti a restare sul social network, in attesa che la risposta venga consegnata (andando così incontro ai desiderata di azionisti e investitori, per i quali una delle metriche più importanti è il tempo trascorso sulla piattaforma, che massimizza la possibilità di visualizzare annunci pubblicitari).

Tutto ciò ha anche delle conseguenze paradossali, come l’introduzione di strumenti che hanno il solo scopo di creare dipendenza e – a differenza di quelli citati finora – non migliorano in alcun modo la nostra esperienza utente. È il caso delle snapstreak di Snapchat, che mostrano da quanti giorni consecutivamente stiamo interagendo con una persona, motivandoci ad allungare sempre di più la striscia (streak). Questa funzione non ha alcuno scopo e nessuna utilità, se non quella di spronarci a mantenerla attiva; con reazioni documentate da parte dei giovanissimi – in caso di interruzioni improvvise – che in alcuni casi sono state di vera e propria isteria.

Quando si sfruttano dei bisogni così profondi del nostro cervello, diventa veramente difficile resistere alle tentazioni. Ed è per questa ragione che non siamo solo noi che dobbiamo combattere contro il richiamo dello smartphone; sono le stesse compagnie che devono comportarsi eticamente e – come ha affermato Tristan Harris – smetterla di «sequestrare la nostra mente».

Da questo punto di vista, qualcosa inizia a muoversi. Non tanto per la possibilità – presente ormai sia su iOS che su Android – di monitorare e gestire il tempo di utilizzo degli smartphone (che sono facilmente aggirabili e poco utili). Ma perché lo strumento del like, nella sua potenza, è arrivato a condizionare talmente tanto le nostre vite da rivelarsi controproducente anche per gli stessi social network, al punto che Instagram lo sta parzialmente rimuovendo (mantenendo visibile il numero dei “mi piace” ricevuti solo all’autore del post). Una decisione che rappresenta una vera e propria svolta, ma che non è dettata dalla volontà di liberarci dalla dipendenza dai social, bensì dal fatto che i like rappresentano ormai un’arma a doppio taglio: una scarica di gratificazione che ci sprona a postare di più per accumulare ulteriori consensi, ma anche un deterrente che ci impedisce di pubblicare liberamente tutto ciò che vogliamo per il timore di ricevere pochi like e, di conseguenza, apparire un po’ sfigati. Fare in modo che i like siano visibili solo all’utente, ma non ai suoi contatti, mantiene inalterato il nostro desiderio di riceverne quanti più possibili, ma ci libera dalla pressione legata al fatto che tutti gli altri vedono quanti ne abbiamo ricevuti. 

Eliminare del tutto i like rappresenterebbe invece un’inversione a U nei confronti di uno dei meccanismi fondanti di tutti i social network: la quantificazione della nostra popolarità. Descritto in questi termini, si capisce meglio perché il sistema dei like – soprattutto su Instagram, il social di riferimento dei più giovani – sia stato accusato di essere potenzialmente pericoloso per la salute. C’è poco da stupirsi: trasformare i social in un interminabile concorso di popolarità non può essere privo di conseguenze. E su Instagram, ancor più che su Facebook o altrove, questo concorso è portato all’esasperazione, tanto da renderlo una sorta di vetrina di finte vite patinate in cui siamo tutti costantemente in viaggio, circondati da amici durante feste esclusive o a prendere il sole su spiagge esotiche.

Invece di rendere i social un’estensione della nostra vita, il meccanismo dei like li ha trasformati in una trappola che ci costringe a scegliere con cura cosa pubblicare e cosa evitare di mostrare, nella speranza incessante di raccogliere il maggior numero di consensi sotto forma di like. Una trappola dalla quale, probabilmente, moltissimi utenti non vedevano l’ora di liberarsi (seppur parzialmente) considerando le reazioni positive alla decisione di rendere i like visibili soltanto all’autore del post. Se invece si decidesse di oscurare del tutto i like da un giorno all’altro, dovremmo prepararci ad affrontare le controindicazioni: ciò, ha spiegato lo psicologo Luca Melone, «potrebbe avere conseguenze inaspettate, perché [si depotenzierebbe] uno strumento che agisce sul sistema della ricompensa. Ogni like che si riceve rilascia dopamina e dà assuefazione. Il rischio di crisi di astinenza è quindi possibile». In ogni caso, quando si è in crisi di astinenza la soluzione migliore è solo una: affrontarla, superarla, disintossicarsi. E poi risvegliarsi dopo qualche tempo scoprendo di stare molto meglio.

Jeff Koons, Rose Gold Rabbit XL – Lega di zinco – Asta Arte Moderna

La nuova frontiera è arrivata

 

Tutto questo ci dà una prima idea di quanto un’innovazione come lo smartphone abbia influenzato, nel bene e nel male, le nostre vite. Ha dato avvio alla fusione umano-macchina, ha reso il mondo digitale parte integrante della nostra vita quotidiana e ha addirittura influenzato, se non direttamente modificato, la nostra psiche e la nostra percezione di noi stessi. Ma nonostante l’impatto che lo smartphone ha avuto sulla società, il suo ormai decennale avvento costituisce solo la prima tappa del tragitto che porterà la tecnologia a essere sempre più incorporata nell’essere umano, rendendo gradualmente indistinguibili i due livelli (fisico e digitale) sui quali la nostra vita scorre. A differenza di quanto si poteva immaginare solo qualche anno fa, però, la seconda tappa di questo lungo percorso non è costituito dagli smartwatch, che rappresentano semmai un mediatore tra noi e lo smartphone.

In fondo, perché il processo di avvicinamento della tecnologia al corpo umano deve passare da un dispositivo che indosso al polso quando posso averlo direttamente davanti agli occhi? Da questo punto di vista, la decisione di Alphabet di rilanciare a livello professionale i Google Glass (in passato uno dei suoi flop più clamorosi) ha dimostrato una cosa: non era l’idea a essere sbagliata, ma i tempi a essere troppo precoci. Svelato sotto forma di prototipo già nel 2012, il visore digitale fallì non solo per l’elevato costo (1.500 dollari) e per il fatto che mettesse a disagio sia chi li indossava sia chi si trovava nei paraggi, ma soprattutto per la mancanza di una killer app che rendesse davvero evidente il vantaggio di questi occhiali intelligenti rispetto ai normali smartphone.

In verità, già allora l’azienda di Mountain View aveva le idee chiare su quale fosse l’applicazione fondamentale per i suoi visori: la realtà aumentata, che permette di sovrapporre il digitale all’ambiente che ci circonda. Una tecnologia diventata davvero popolare solo con il lancio dei Pokémon Go nell’estate 2016, ma sulla quale tutte le più importanti aziende tecnologiche stanno da tempo lavorando: da Apple a Facebook, da Microsoft (una delle prime società a credere in questo tipo di progetto con i suoi Hololens) a Samsung.

Il lancio dei Google Glass sarebbe probabilmente dovuto avvenire dopo la diffusione della realtà aumentata e non prima. Anche perché, secondo gli esperti, è solo grazie ai visori che la AR (augmented reality) mostrerà tutte le sue potenzialità, dispiegando direttamente davanti ai nostri occhi la fusione tra fisico e digitale e, quindi, “aumentando” davvero il mondo che ci circonda.

L’esempio più semplice per capire in cosa consista la capacità della AR di aumentare l’ambiente è quello dei GPS: grazie alla realtà aumentata e agli smartglasses, le indicazioni stradali saranno proiettate dal visore nel nostro campo visivo e integrate con l’ambiente (un primo esempio si può vedere già oggi grazie ai navigatori sperimentali di Alibaba, che mostrano le indicazioni direttamente sul parabrezza). Il percorso da seguire, quindi, sarà visualizzato direttamente sull’asfalto, sovrapponendo il mondo digitale a quello fisico. Ma le applicazioni dei visori vanno molto oltre i GPS e devono essere in larga parte ancora immaginate: pensate per esempio a un libretto delle istruzioni dei mobili Ikea che non sia più di carta, bensì una guida digitale che, grazie ai visori, si sovrappone direttamente al mobile che state montando, spiegandovi in tempo reale i passi da seguire (e quanto questo possa diventare uno strumento utile per chi esegue riparazioni e montaggi per lavoro).

A tutto questo si aggiungono le funzioni base degli occhiali smart, già evidenti ai tempi dei Google Glass: le notifiche dei social network e delle mail appariranno davanti ai vostri occhi; interagiremo con ciò che compare sui visori (messaggi, ordinazioni, ricerche sul web, eccetera) non più digitando, ma dialogando con il nostro assistente virtuale; i giochi saranno degli ologrammi, mentre video e fotografie diventeranno ancora più pervasivi (come anticipato – nonostante il loro scarso successo – anche dagli Spectacles di Snapchat) e creeranno un flusso non stop di informazioni in presa diretta. Per gestire questa mole di contenuti e notifiche useremo anche le mani: un gesto rapido verso destra potrebbe indicare di cancellare una mail o ignorare una notifica; muovere la mano in avanti metterà in evidenza il messaggio appena arrivato e, insomma, vi ricordate Minority Report?

La citazione di un film di fantascienza non deve però essere fraintesa: tutto ciò diventerà realtà in tempi relativamente brevi, come dimostra il fatto che il primo prototipo funzionante di un visore progettato per il mercato di massa (a differenza dei professionali Hololens di Microsoft e dei Google Glass) sia stato svelato già nel febbraio 2018. Dopo sei anni di video virali e 2 miliardi di dollari raccolti in finanziamenti, Magic Leap – la startup super-segreta con base in Florida e supportata da realtà come Google e Alibaba – ha finalmente mostrato al mondo il suo primo prototipo: il Magic Leap One, un sistema tecnologico per la realtà aumentata che nell’ottobre del 2018 è stato consegnato nelle mani di sviluppatori e utenti selezionati e nei primi mesi del 2019 è stato infine messo in vendita.

In breve, si tratta di un visore digitale alimentato da un piccolo computer di forma rotonda che si può appendere alla cintura. Per comprendere rapidamente il meccanismo alla base di Magic Leap, basta pensare a come funzionerebbe il vostro smartphone se tutto ciò per cui lo utilizzate venisse proiettato direttamente davanti ai vostri occhi, integrandosi con l’ambiente fisico (un video del digital designer Keiichi Matsuda, Hyper-reality, mostra perfettamente questo meccanismo).

Il prototipo del Magic Leap One ha sollevato non poche ironie: un paio di occhiali estremamente ingombranti, che ci costringono a circolare con un minicomputer attaccato alla cintura e a tenere sempre in mano una sorta di telecomando. Se qualcuno oggi andasse in giro conciato in questa maniera si coprirebbe di ridicolo (la stessa Magic Leap, dopo l’entusiasmo iniziale, ha infatti registrato vendite scarsissime e sta andando incontro a non poche difficoltà economiche); ma questo è solo l’inizio: col passare del tempo, i visori diventeranno sempre più simili a normali occhiali, il minicomputer entrerà in tasca o sarà integrato direttamente nel visore e il telecomando potrebbe anche sparire, permettendoci di dare i comandi solo per via vocale o gestuale.

Manca ancora del tempo affinché questa “realtà artificiale” – come l’ha definita il co-fondatore di Oculus, Brendan Iribe – si diffonda davvero: ci sarà bisogno di maggiore potere computazionale, di batterie resistenti e leggere e ovviamente di un intero ecosistema di applicazioni e strumenti che oggi sta appena iniziando a fare la sua comparsa. Una cosa però è certa: quando tutto ciò si concretizzerà, il nostro modo di lavorare, fare sport, comunicare e intrattenerci cambierà drasticamente. Un esempio di come potrebbe trasformarsi una pratica quotidiana come il jogging la fornisce Kevin Kelly:

Inforco gli occhiali per la realtà aumentata mentre corro all’aperto. Il percorso è dritto davanti a me e posso vedere in sovraimpressione tutte le misurazioni del mio allenamento, come per esempio il battito cardiaco e lo stato del mio metabolismo in tempo reale. Posso anche visualizzare le ultime annotazioni virtuali sui posti in cui passo. Sui miei occhiali vedo una nota su un tragitto alternativo che un mio amico ha fatto quando ha percorso questa stessa strada un’ora prima e vedo anche delle annotazioni storiche associate a un paio di punti di riferimento che sono state lasciate dal club di storia locale di cui sono membro. Un giorno potrei anche provare l’applicazione per il riconoscimento degli uccelli, che associa un nome a quelli che vedo mentre corro nel parco.

È evidente come i visori in realtà aumentata rappresentino un passaggio cruciale della fusione tra mondo fisico e digitale grazie alla loro capacità di rendere questa unione frictionless, priva cioè di quella frizione tra i due ambienti (la necessità di inquadrare il mondo fisico con un dispositivo per sovrapporre a esso gli elementi digitali) che contraddistingue le applicazioni AR degli smartphone e che sono, oggi come oggi, il loro più grande limite. Ma non è tutto: se adesso dobbiamo decidere di prendere in mano lo smartphone per essere online, nel futuro (che dista solo pochi anni) dovremo decidere di toglierci il visore per scollegarci. Una differenza fondamentale: la nostra condizione di base sarà connessa alla rete e al fiume di attività che possiamo gestire con questi headset; per staccare dovremo decidere di levarceli dagli occhi. Che impatto avrà uno strumento del genere sulle nostre vite?

Umanità digitale

 

Più la tecnologia avanza e si fonde con il corpo umano – e più il mondo digitale si fonde con quello fisico – meno ha senso utilizzare una dicotomia che è comunque sempre stata problematica: online vs offline, a volte declinata come mondo reale in opposizione a mondo digitale. Una distinzione che probabilmente è sempre stata priva di senso: perché le nostre interazioni su Facebook dovrebbero essere meno reali (nella loro ovvia diversità) di quelle che abbiamo nel mondo fisico? Perché un’esperienza vissuta online dovrebbe essere meno importante di una vissuta offline?

Finché il mondo digitale era confinato in computer fissi che compartimentalizzavano la nostra esperienza online, questa dicotomia poteva ancora avere una ragion d’essere. Ma con l’avvento degli smartphone, e ancor più col prossimo arrivo dei visori in realtà aumentata, tutto ciò sta diventando privo di significato. Dove prima c’era uno sfumato online vs offline, adesso si aprono le porte a un’esperienza unica e omogenea, per descrivere la quale il filosofo Luciano Floridi ha coniato il fortunato termine onlife. 

La pervasività sempre crescente delle tecnologie di informazione e comunicazione (ICT) scuote le strutture di riferimento consolidate attraverso le seguenti trasformazioni: lo sfocamento della distinzione tra reale e virtuale; della distinzione tra umano, macchina e natura; l’inversione dalla scarsità dell’informazione all’abbondanza dell’informazione e il passaggio dal primato delle entità al primato delle interazioni

La nostra vita non è più divisa tra esperienze online ed esperienze offline e non c’è una supremazia, o maggiore autenticità, delle une rispetto alle altre. Tutto è fuso: un’esperienza virtuale può proseguire nel mondo fisico, una nostra azione nel mondo virtuale può avere concrete ripercussioni in quello offline. E, soprattutto, non c’è motivo di ritenere che ciò che avviene online sia meno “vero” di ciò che avviene offline. Non siamo esseri umani che si immergono temporaneamente nel mondo digitale per poi riemergere, scrollarci tutto di dosso, e riprendere la nostra vita regolare: le due esperienze sono costantemente e profondamente intrecciate.

Se questa dicotomia mantiene un barlume di significato è soltanto perché, ancora oggi, la nostra condizione di base è offline e per connetterci al mondo dobbiamo prendere in mano uno smartphone o aprire il portatile. I visori AR rovesceranno questa condizione: la normalità sarà essere sempre connessi alla rete e avere il mondo digitale davanti agli occhi. Questi visori rappresentano quindi un passo avanti cruciale per la fusione tra mondo digitale e mondo fisico e tra tecnologia e corpo umano, ma la prospettiva finale – per quanto possa sembrare assurdo – è un’altra: trasformare gli esseri umani in veri e propri cyborg.

Non pensate a Robocop, ma al significato letterale di cyborg: un organismo vivente sul quale sono stati innestati degli organi sintetici. A differenza delle protesi artificiali già note (che hanno lo scopo di rimpiazzare arti perduti o gravemente danneggiati), le nuove protesi digitali puntano invece ad aumentare le capacità sensoriali degli esseri umani. Una prospettiva ancora lontana, ma per raggiungere la quale si lavora alacremente nei laboratori di ricerca accademica e dei colossi del tech. Un primo prototipo è stato recentemente presentato dai ricercatori dell’Università della California San Diego ed entra a pieno titolo nel percorso che dovrebbe portare – in un futuro oggi ancora lontano – alla produzione delle cosiddette smart lens: lenti a contatto altamente tecnologiche che sostituiranno i visori in realtà aumentata; riducendo ulteriormente la frizione tra mondo digitale e mondo fisico.

Il prototipo mostrato dai ricercatori riguarda infatti una lente a contatto in grado di mettere a fuoco automaticamente ciò che stiamo guardando a seconda della distanza a cui si trova dal nostro occhio, arrivando addirittura a zoomare per inquadrare gli oggetti più lontani. Per comandare le funzioni di questa lente non dovremo però schiacciare dei tasti su un dispositivo che la controlla, ma sfrutteremo direttamente i segnali elettrici generati dai movimenti dell’occhio, utilizzando a questo scopo degli elettrodi posti sulla pelle. 

Gli ostacoli tecnologici per rendere tutto ciò realtà non sono però da poco e hanno già portato allo stop di un progetto simile da parte di Google. Sfogliando i nomi delle organizzazioni e delle aziende che stanno lavorando su queste tecnologie, si capisce come la faccenda sia comunque da prendere sul serio: la DARPA sarebbe pronta a investire su una smart lens progettata nei laboratori dell’istituto francese IMT Atlantique, mentre Samsung (uno dei primi colossi a brevettare le lenti a contatto hi-tech, già nel 2014) ha depositato nel luglio 2019 un nuovo brevetto riguardante smart lens in grado di registrare video, scattare fotografie e controllare dispositivi come gli smartphone attraverso gli occhi. 

Si tratta degli inevitabili passaggi intermedi che condurranno un giorno alla next big thing: le lenti a contatto in realtà aumentata in grado di superare i limiti dei visori in stile Magic Leap o Hololens, trasformandoci in esseri umani perfettamente integrabili nel mondo digitale. La startup Mojo Vision, che ha già raccolto finanziamenti per oltre 50 milioni di dollari da svariati colossi, tra cui Google e LG Electronics, sta lavorando esplicitamente a questo scopo. Quella delle smart lens è una prospettiva che dista ancora parecchio, ma quando sarà realtà modificherà ulteriormente la nostra condizione di base: a quel punto, ci sconnetteremo solo per andare a dormire; il resto del nostro tempo sarà invece sempre immerso nella rete.

Il percorso tracciato dall’innovazione tecnologica è evidente: dallo smartphone, una sorta di protesi digitale che è però staccata dal nostro corpo e che ci costringe ad alternare l’immersione nel mondo digitale al tempo trascorso nel mondo fisico, ai visori in AR, che permettono di avere sotto controllo il mondo fisico e digitale contemporaneamente, fino alle lenti a contatto smart, che aumenteranno i nostri sensi e attraverso le quali saremo sempre connessi alla rete. La tecnologia si miniaturizza e si avvicina sempre di più al corpo umano, fino a fondersi in esso.

Da questo punto di vista, nessun obiettivo è più ambizioso della produzione di un’interfaccia cervello-macchina che colleghi la mente umana direttamente ai computer. Elon Musk è il fondatore della più nota startup del settore: Neuralink, la società dedita alla creazione di un’interfaccia umano-macchina che, attraverso un “laccio neurale”, aumenti le capacità del cervello umano.

Per quanto sembri un progetto fantascientifico, alcune versioni di queste interfacce macchina-computer esistono in realtà da tempo e vengono usate a scopi medici: era il 2006 quando un primo paziente – Matthew Nagle, affetto da una paralisi del midollo spinale – si sottopose a un impianto cerebrale sviluppato dalla Brown University che gli permise di giocare a Pong usando la mente. Da allora, numerose persone paralizzate hanno utilizzato impianti cerebrali per muovere arti robotici o comunicare via tablet con i propri cari.

«Stiamo lavorando sulle spalle dei giganti che ci hanno preceduto”, ha infatti affermato il presidente di Neuralink Max Hodak. L’obiettivo della startup fondata da Musk va però oltre le sole applicazioni mediche. A cos’altro può servire uno strumento di questo tipo? Un esempio può chiarire il quadro: se oggi non ci ricordiamo il regista di un film, digitiamo il nome del film su Google e da lì risaliamo al regista. Immaginate di poter fare la stessa cosa usando direttamente il cervello, richiamando quindi i dati di cui abbiamo bisogno come oggi richiamiamo alla mente un ricordo nitido. Allo stesso modo, potremo prendere appunti, impostare promemoria, ottenere le indicazioni stradali e molto altro ancora usando direttamente il cervello, che a quel punto – connesso attraverso un’interfaccia cervello-macchina – diventerà sempre più simile a un computer.

Non sono solo Elon Musk e la sua Neuralink a essere al lavoro su dispositivi di questo tipo. Una startup come Kernel – registrata come società che opera in campo medico – conduce sperimentazioni per inserire chip all’interno del cervello, con lo scopo iniziale di individuare le cause degli attacchi epilettici o per combattere anoressia e obesità. Ma i veri obiettivi di questa tecnologia sono molto differenti: aumentare la memoria, imparare più rapidamente e magari, un giorno, rendere possibile comunicare per via telepatica. Le sperimentazioni mediche in questo settore si stanno insomma moltiplicando, ma rappresentano solo la testa d’ariete, la giustificazione più nobile per proseguire nello sviluppo di dispositivi che, in futuro, potrebbero renderci in grado di ricevere informazioni dai computer e comunicare l’un l’altro usando solo il cervello (fino ad arrivare all’utopia della “intelligenza collettiva”).

Perché fermarsi qui? Passando dagli impianti tecnologici allo studio dei geni e ai modelli predittivi basati sul DNA, startup come Genomic Prediction, 23andMe e altre puntano a identificare i geni responsabili della nostra intelligenza e quindi riconoscere gli embrioni umani destinati ad avere un QI più o meno elevato. Anche in questo caso, le applicazioni eticamente accettate sono soltanto quelle mediche: «Riveleremo solo possibili condizioni gravemente negative; non vi diremo mai “vostro figlio diventerà un giocatore della NBA o un genio della fisica”», ha spiegato il fondatore di Genomic Prediction Stephen Hsu alla MIT Tech Review. Ma non sarà facile controllarne gli sviluppi: già nel 2013, 23andMe aveva suscitato scandalo depositando un brevetto che, consentendo ai genitori di selezionare i donatori di gamete attraverso calcoli genetici, sembrava essere il primo passo verso l’eugenetica (salvo poi fare retromarcia).

Stephen Hsu di Genomic Prediction – che ha più volte confermato come la sua società sia intenzionata esclusivamente a evitare che nascano bambini con gravi malattie – è però anche l’autore di un saggio pubblicato su Nautilus (con il titolo Gli umani super-intelligenti stanno arrivando) in cui spiega come, attraverso l’editing genetico e tecniche come Crispr, potrebbe diventare possibile, nel giro di pochi anni, aumentare il QI dei propri figli di 15 punti senza troppe difficoltà (“la differenza tra un bambino che avrà difficoltà a scuola e uno che completerà con successo il college”, specifica Hsu) e immagina addirittura di farlo arrivare a un valore complessivo di mille punti.

Nel suo saggio, Hsu richiama il racconto Fiori per Algernon di Daniel Keyes, in cui un adulto di nome Charlie Gordon riceve un trattamento sperimentale che gli consente di aumentare il suo QI da 60 (molto basso) fino a circa 200, trasformandosi da un panettiere di cui gli amici si approfittano in un genio capace di vedere tutte le connessioni del mondo senza alcuno sforzo: «Vivo al picco di una chiarezza e di una bellezza che non sapevo nemmeno esistessero», scrive Charlie. «Non c’è gioia più grande dell’esplosione della soluzione a un problema. Questa è bellezza, amore e verità tutto in uno. Questa è gioia».

Fuori dalla narrativa, secondo Hsu l’editing genetico per aumentare il QI potrebbe dotarci di una memoria visiva quasi perfetta, di un pensiero superveloce, di una visualizzazione geometrica estremamente potente, della capacità di formulare più pensieri contemporaneamente. Ma perché dovremmo volere tutto questo? E soprattutto perché dovremmo volerlo conquistare per via artificiale? Secondo Bryan Johnson, fondatore della già citata Kernel, la ragione è semplice: «Il mondo è diventato fin troppo complesso: il sistema finanziario è imprevedibile, la popolazione invecchia, i robot vogliono il nostro lavoro, l’intelligenza artificiale ci sta raggiungendo e il cambiamento climatico non sembra prossimo ad arrestarsi. Tutto sembra fuori controllo. E allora, perché non dovremmo decidere noi stessi in quale direzione evolvere? Perché non dovremmo fare tutto il possibile per adattarci più rapidamente?».

Gian Ruggero Manzoni, Senza titolo (2008) – Olio su tela – Asta Arte Moderna Pananti

I limiti dell’intelligenza artificiale

 

Già, perché non dovremmo fare tutto il possibile per adattarci più rapidamente e diventare così una specie tecnologica e geneticamente modificata, in grado di fronteggiare al meglio un mondo che si fa talmente complesso da sfuggire al nostro controllo? Nessuno l’ha riassunto meglio di Elon Musk, quando ha affermato che «l’umanità deve aumentare sé stessa se vuole tenere il passo delle macchine» e impedire che, in futuro, solo le intelligenze artificiali siano in grado di padroneggiare gli scenari che ci si pongono dinnanzi. La combinazione di big data in quantità sempre crescenti e il costante aumento nel potere di calcolo dei computer sta infatti rendendo i network neurali basati su algoritmi di machine learning sempre più efficaci, veloci e utili; facendo temere che possano un domani raggiungere l’umanità.

È davanti agli occhi di tutti: il machine learning non è solo ciò che sta alla base degli algoritmi di Google, Facebook, Spotify e Netflix, ciò che permette agli smartspeaker come Amazon Echo di funzionare in maniera soddisfacente e a svariati software di riconoscere i volti delle persone (o oggetti e animali) che compaiono nelle foto. Le AI (artificial intelligence) svolgono nella nostra società compiti di responsabilità sempre maggiore: affiancano i medici nelle diagnosi e sono in grado di riconoscere i tumori con una precisione superiore a quella umana, guidano le auto autonome che un giorno potrebbero sostituire i tassisti, decidono chi assumere, chi fare uscire di galera e lavorano anche negli studi legali. Un domani potrebbero addirittura assumere incarichi politici, se vogliamo prendere per buone alcune delle più provocatorie previsioni dello storico israeliano Yuval Noah Harari e accettare quanto sostenuto su Wired (tra il serio e il faceto) da Joshua Davis, secondo cui un “presidente intelligenza artificiale” potrebbe offrirci la più «pura forma di governo, focalizzata solo sugli ideali che vogliamo che il nostro presidente rappresenti».

Se le cose stanno così, non resta che dare ragione a Elon Musk: se vogliamo che l’essere umano non diventi obsoleto e possa invece rimanere alla guida della società, dobbiamo per forza aumentare le nostre capacità cognitive, fino al punto di fonderci con le intelligenze artificiali e ottenere così il “meglio dei due mondi”, sfruttando le innovazioni tecnologiche per salire sul prossimo gradino evolutivo dell’homo sapiens.

Ma è proprio così? Davvero l’intelligenza artificiale sarà in grado, nel giro di qualche anno, di sostituire l’umano sotto qualunque aspetto, raggiungendo quel livello di “intelligenza artificiale generale” che molti auspicano e altrettanti temono? In verità, i timori sulla prossima obsolescenza umana rischiano di essere malriposti. Un recente avvenimento può aiutarci a comprendere meglio la questione.

Nel maggio 2018, Google ha svelato davanti a una platea sbalordita il suo programma Duplex: un software in grado di chiamare in autonomia il ristorante per prenotare un tavolo senza che la persona all’altro capo del telefono si rendesse conto di avere a che fare con un’intelligenza artificiale. Duplex, infatti, non è solo in grado di sostenere una conversazione, ma anche di imitare le pause e gli intercalare classici degli esseri umani.

Oltre a stupire, le abilità di Duplex hanno sollevato non poche preoccupazioni: come faremo, in futuro, a essere sicuri che le AI non ci ingannino fingendo di essere degli umani? È necessario obbligare i software a dichiarare la loro natura artificiale? Siamo di fronte al primo passo di un’evoluzione che porterà le AI a diventare sempre più simili agli esseri umani, fino al punto di sviluppare una coscienza?

Domande affascinanti, ma che poco hanno a che fare con quanto realmente dimostrato da Duplex. «A differenza di quanto sostenuto da alcuni, non siamo di fronte all’avvento di una AI realmente intelligente», ha scritto il docente di Scienze Neurali Gary Marcus. «Se si vanno a leggere le dichiarazioni ufficiali di Google, si scopre che lo scopo iniziale del progetto è molto limitato: Duplex può solo chiamare un ristorante o il parrucchiere».

Perché una gamma così limitata di possibilità? La ragione è tutta nelle caratteristiche stesse del deep learning (un’evoluzione del machine learning): per sostenere una conversazione, una AI deve essere addestrata usando centinaia di migliaia di dati, che le consentono di scoprire tutte le possibili interazioni che avvengono in una chiacchierata tra esseri umani e, quindi, di valutare statisticamente quale sia la risposta corretta a una data domanda.

Un compito complesso e che può funzionare solo se la conversazione è estremamente circoscritta (com’è il caso delle prenotazioni a ristorante). «Google Duplex non è così limitato perché sta compiendo i primi passi verso obiettivi ben più ambiziosi», ha sostenuto ancora Marcus. «La verità è che gli esperti di deep learning non hanno nessuna idea di come riuscire a fare di meglio. Le conversazioni non predefinite, in cui si affrontano una vasta gamma di argomenti, non sono nemmeno ancora in vista».

Questo non vale soltanto per gli algoritmi specializzati nel linguaggio, ma per tutte le tipologie di intelligenze artificiali. Lo stesso avviene infatti anche con i sistemi di riconoscimento immagini che hanno il compito, tra le altre cose, di riconoscere gli animali o le persone presenti in una foto. «Anche delle piccolissime modifiche a un’immagine possono cambiare completamente il giudizio del sistema», ha sostenuto Russell Brandon su The Verge. «Un algoritmo non è in grado di riconoscere una lince a meno che non abbia visto migliaia di foto di questo animale; non importa che abbia già imparato a distinguere gatti e giaguari». Lo stesso vale anche per le auto autonome (il cui debutto continua a essere rinviato): nel traffico cittadino, le incognite sono semplicemente troppe perché l’intelligenza artificiale possa ricondurle a un modello prevedibile. Una persona che sbuca all’improvviso dietro un tram deciderà di lasciare passare l’auto che sopraggiunge o proverà ad attraversare? E il motorino che sembra sul punto di tagliarci la strada cambierà all’ultimo secondo idea o lo farà davvero? «La casualità dei comportamenti non può essere gestita dalla tecnologia di oggi», ha confermato il responsabile di Volvo per la guida autonoma Marcus Rothoff.

In poche parole, le AI sono prive delle capacità di generalizzazione e astrazione; aspetti fondamentali dell’intelligenza umana che ci consentono di sostenere conversazioni di ogni tipo o di riconoscere una lince anche solo sapendo che si trova, più o meno, a metà strada tra un gatto e un giaguaro. Da questo punto di vista, insomma, l’intelligenza artificiale non è soltanto molto inferiore a quella umana, ma non ha nemmeno imboccato la strada che un giorno potrebbe portarla a superarci (questo, ovviamente, non deve far sottovalutare le impressionanti – e già menzionate – conquiste del deep learning).

Ad accomunare tutti questi algoritmi è infatti l’utilizzo della statistica e il fatto di essere intelligenze artificiali limitate, in grado cioè di eseguire un solo compito per volta (in linguaggio specialistico: ANI, artificial narrow intelligence). Un algoritmo progettato per le traduzioni non può anche diagnosticare il cancro; allo stesso modo, un sistema in grado di riconoscere un gatto non può distinguere anche una mucca. Gli algoritmi di AI sono in grado di svolgere un solo compito: ogni volta che si vuole passare da una mansione all’altra bisogna riprogrammarli da capo.

In termini scientifici, le intelligenze artificiali sono prive, come ha spiegato il fisico di Oxford David Deutsch, della capacità umana di «adattare un repertorio comportamentale pre-esistente alle nuove sfide, senza il bisogno di ricorrere al meccanismo dei tentativi ed errori o essere adeguatamente preparati da una terza parte». Oltre a non avere la capacità di astrarre e generalizzare, le AI – scrive sempre Deutsch – non posseggono «la creatività e il buon senso: due fattori fondamentali che rappresentano il segno caratteristico di un’intelligenza generale propriamente intesa».

Per quanto riguarda la creatività, si potrebbero avanzare alcune obiezioni. Il software che ha sconfitto il campione mondiale di Go (un gioco da tavolo estremamente complesso) è riuscito nella sua impresa utilizzando delle mosse che a prima vista sembravano degli errori. Manovre che un essere umano non avrebbe mai fatto, dimostrando come – in un certo senso – la AI abbia giocato al di fuori degli schemi classici e quindi dato prova di una certa creatività43.

Non solo: il 25 ottobre 2018, l’opera chiamata Ritratto di Edmond Belamy è stata venduta a un’asta di Christie’s per 432.000 dollari. A produrre il quadro non è stato un artista umano, ma un’intelligenza artificiale che si è basata su una quantità immensa di opere d’arte del passato che le sono state fornite dai suoi programmatori; rielaborandole per dare vita a un dipinto originale.

Si è trattato di arte o di imitazione? In un certo senso, ci si potrebbe porre la stessa domanda anche per l’arte creata dagli umani. In fondo, nessun pittore, scultore o performer ha creato qualcosa partendo dal nulla, ma sempre rielaborando, ricreando, reinventando tutto ciò che la storia dell’arte ha prodotto fino a oggi. I dataset utilizzati dalla AI per dare vita alle sue opere potrebbero quindi essere qualcosa di simile alle influenze che gli artisti del passato hanno su quelli contemporanei.

E per quanto invece riguarda il buon senso? È difficile trovarne traccia. I problemi delle intelligenze artificiali in questo ambito sono esemplificati alla perfezione dalle continue difficoltà a cui i filtri automatici di Facebook vanno incontro quando si tratta di cancellare contenuti inappropriati. Per l’algoritmo incaricato di individuare immagini che infrangono il regolamento del social network è impossibile distinguere tra una foto erotica (e quindi da cancellare) o il nudo contenuto in un’opera d’arte (che è invece consentito). La stessa mancanza di buon senso è ciò che rende impossibile a un algoritmo distinguere un post razzista (e quindi da vietare) da uno che prende in giro gli sproloqui dei razzisti.

Solo l’essere umano, a oggi, ha le capacità necessarie per applicare distinzioni così sottili e importanti. Non essendo invece dotate dell’abilità di generalizzare e di ragionare astrattamente, le intelligenze artificiali potrebbero non diventare mai in grado di far fronte a circostanze impreviste, e nemmeno di sostenere dialoghi che non siano estremamente circoscritti. Il tema è stato recentemente sollevato sull’Atlantic da un pioniere della AI come Judea Pearl: «Per come la vedo io, lo stato dell’arte dell’intelligenza artificiale di oggi è soltanto una versione potenziata di ciò che le macchine potevano fare già una generazione fa: trovare le regolarità nascoste in un ampio set di dati. Tutte le impressionanti conquiste del deep learning ammontano a un semplice curve fitting (il processo matematico che permette di costruire una curva che corrisponda nel modo migliore a una serie di punti assegnati, N.d.A.)».

In termini più intuitivi, la tecnologia del deep learning fa molta fatica quando deve affrontare territori non chiaramente definiti, in cui giocano un ruolo importante il ragionamento, il buon senso e il significato. «Non siamo in presenza di nessuna vera forma di intelligenza», ha sostenuto il professor Michael I. Jordan in un recente saggio. «La fiducia verso questi algoritmi brute force potrebbe essere decisamente mal riposta».

Non solo non sappiamo se la AI arriverà mai dove alcuni prevedono che possa arrivare, ma neanche si può dare per scontato che la sua evoluzione continui ai ritmi odierni. Come spiegato ancora una volta da Luciano Floridi, se vediamo solo la parte iniziale di una curva logistica (con uno stadio iniziale di crescita che è approssimativamente esponenziale, seguito dal rallentamento della crescita e, infine, nessuna crescita), questa ci può apparire come una crescita destinata a essere perennemente esponenziale. In poche parole, potremmo anche scoprire che gli algoritmi hanno già compiuto la maggior parte della loro evoluzione e che il futuro prossimo sarà solo all’insegna del consolidamento (come sostiene tra l’altro Kai-Fu Lee, autore di AI Superpowers).

Ma se le cose stanno così, viene meno una delle principali ragioni dei sostenitori del potenziamento digitale degli esseri umani. Se le aspettative e i timori nei confronti delle intelligenze artificiali sono malriposti, perché dovremmo avere tutta questa urgenza di aumentare a qualunque costo le nostre abilità, per via tecnologica o genetica? A questo punto, diventa fondamentale fare un passo indietro e capire chi davvero ci guadagna dalla prospettiva di mettere a punto innovazioni tecnologiche che aumentino le capacità cerebrali dell’umano. 


Andrea Daniele Signorelli Giornalista classe 1982, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per La Stampa, Wired, Domani, Esquire, Il Tascabile e altri. Ha pubblicato “Rivoluzione Artificiale: l’uomo nell’epoca delle macchine intelligenti” (LEdizioni 2019) e “Tiratura Illimitata: indagine sul giornalismo che cambia” (Mimesis, 2015).

Ti è piaciuto questo articolo? Da oggi puoi aiutare L’Indiscreto a crescere e continuare a pubblicare approfondimenti, saggi e articoli di qualità: invia una donazione, anche simbolica, alla nostra redazione. Clicca qua sotto (con Paypal, carta di credito / debito)

1 comment on “L’ascesa dei Technosapiens

  1. Oliveira

    Articolo molto ben fatto, ma si è interrotto sul piú bello!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *