La coscienza è la battaglia tra credenza e percezione



Elaborare teorie sul funzionamento della coscienza è complesso, eppure ci sono indizi e idee che partono da un dato fondamentale: la nostra capacità di tralasciare ciò che proviene dall’esperienza sensoriale.


In copertina: giulio turcato “SUBACQUEO”, (1970)

(Questo testo è la traduzione italiana di un articolo precedentemente uscito su Aeon)


di Hakwan Lau 

Immaginate di essere ad uno spettacolo di magia in cui il prestigiatore svanisce improvvisamente. Ovviamente sapete bene che in realtà si sta nascondendo da qualche parte, eppure continua a sembrarvi che la persona sia scomparsa. Il punto è che non possiamo eliminare la percezione mediante la consapevolezza, a dispetto di qualunque logica. Ma perché le nostre esperienze coscienti sono così ostinate?

Il fatto che la nostra percezione del mondo sia così intransigente, al netto di qualunque nostra riflessione in merito, ci dice qualcosa su come sono programmati i nostri cervelli. Ciò che faremo è confrontare lo scenario che osserviamo, quello del mago scomparso, con il modo in cui siamo abituati a elaborare le informazioni, cioè che le persone non scompaiono. Immaginiamo di avere cinque amici che ci dicono che fuori piove, e un sito di previsioni metereologiche che indica che non è così. Quasi sicuramente diremmo che è il sito web a sbagliare, ma quando si tratta di percezione cosciente, sembra che ci sia qualcosa di stranamente persistente in ciò che vediamo, ascoltiamo e sentiamo. Anche quando un’esperienza percettiva è chiaramente “sbagliata”, non possiamo semplicemente eliminarla.

Perché? I recenti progressi dell’intelligenza artificiale (IA) hanno gettato nuova luce su questo enigma. In informatica, sappiamo che le reti neurali per il riconoscimento dei modelli – i cosiddetti modelli di deep learning – possono beneficiare di un processo noto come codice predittivo. Invece di prendere informazioni passivamente dall’ambiente, dal basso verso l’alto, le reti possono formulare ipotesi dall’alto verso il basso, da testare con le osservazioni. In genere in questo modo funzionano meglio. Quando una rete neurale identifica un gatto, ad esempio, per prima cosa sviluppa un modello che gli permette di prevedere o immaginare l’aspetto di un gatto e a questo punto può esaminare tutti i dati in entrata per vedere se l’oggetto osservato si adatta o meno a questa aspettativa.

Il problema è che, mentre questi modelli generativi possono essere molto efficienti una volta in funzione, di solito richiedono grandi quantità di tempo e informazioni per formarsi. Una soluzione è quella di utilizzare le reti antagoniste generative (GAN) – una strategia salutata dal responsabile della ricerca sull’intelligenza artificiale di Facebook Yann LeCun come “l’idea più interessante nel deep learning negli ultimi vent’anni”. Con GAN è possibile “addestrare” una rete (il generatore) a creare delle immagini di un gatto imitando il più possibile i gatti reali. Inoltre si addestra un’altra rete (il discriminatore) per distinguere tra le immagini dei gatti prodotte e quelle reali. Infine si metteranno le due reti l’una contro l’altra, in modo che il discriminatore sia ricompensato per il riconoscimento dei falsi, mentre il generatore è ricompensato per l’esser riuscito a farli passare per veri. Quando vengono create per competere tra loro, le reti sviluppano notevoli prodezze, non troppo diverse da quelle di un falsario che cerca di ingannare uno storico dell’arte. Tutto questo rende l’apprendimento estremamente efficiente.

Mario Schifano, “Senza Titolo”, 1998

Oltre che un pratico trucco ingegneristico, i GAN sono un’analogia utile per comprendere il cervello umano. Nel cervello dei mammiferi, infatti, i neuroni responsabili della codifica delle informazioni percettive hanno molteplici scopi. Per esempio, i neuroni che si attivano quando vediamo un gatto lo fanno anche quando lo immaginiamo o ricordiamo – e possono anche attivarsi più o meno a caso. Così ogni volta che c’è un’attività nel nostro circuito neurale, il cervello deve essere in grado di capire la causa dei segnali, sia interni che esterni.

Possiamo chiamare questo esercizio “monitoraggio della realtà percettiva”. John Locke, il filosofo britannico del diciassettesimo secolo, credeva che avessimo una sorta di organo interno che svolgeva il compito di autocontrollo sensoriale. Ma i critici di Locke si chiedevano perché Madre Natura si sarebbe presa la briga di far crescere un intero organo separato, oltre a un sistema già predisposto per rilevare il mondo attraverso i sensi. Bisogna essere in grado di sentire qualcosa prima di poter decidere se la percezione è reale o falsa; allora perché non inserire un meccanismo di controllo nello stesso organo di rilevazione?

Alla luce di ciò che ora sappiamo del GAN, però, l’idea di Locke ha un certo fondamento. Poiché il nostro sistema percettivo assorbe risorse neurali, alcune delle sue parti vengono riciclate per usi diversi. Di conseguenza immaginare un gatto attinge agli stessi modelli neuronali prodotti dall’effettiva percezione di un gatto. Ma questa sovrapposizione confonde la nostra interpretazione dei segnali. Quindi, perché lo schema di riutilizzo funzioni, abbiamo bisogno di un discriminatore per distinguere l’osservazione di qualcosa da quando lo stiamo semplicemente pensando. Questo organo sensoriale interno, simile al GAN, deve agire come un avversario, in modo da creare un meccanismo di codifica predittiva efficace.

Se il resoconto di questo meccanismo è corretto, è anche corretto sostenere che l’esperienza cosciente probabilmente è simile a una sorta di inferenza logica. Se il segnale percettivo del generatore dice che c’è un gatto, e il discriminatore decide che questo segnale riflette fedelmente lo stato del mondo in quel momento, allora noi vedremo un gatto. Lo stesso vale per i dati sensoriali più grezzi: ci può essere un forte dolore anche quando sappiamo che nulla ci sta ferendo, e può capitare che pazienti riferiscano di provare dolore ad arti amputati. Nella misura in cui il più delle volte il discriminatore ha ragione, tendiamo a fidarci. Non c’è da stupirsi che quando c’è un conflitto tra impressioni soggettive e credenze razionali, sembra sensato credere a ciò che sperimentiamo consapevolmente.

Questa testardaggine percettiva non è solo una caratteristica degli esseri umani. Anche alcuni primati ce l’hanno, come dimostra la loro capacità di essere stupiti e divertiti da trucchi magici. Sembrano capire che c’è una tensione tra ciò che vedono e ciò che sanno reale. Considerato quello che comprendiamo del loro cervello – in particolare, che anche i loro neuroni percettivi sono “riciclabili” per il funzionamento dall’alto verso il basso – la teoria del GAN suggerisce che questi animali hanno probabilmente esperienze coscienti non troppo diverse dalle nostre.

Il futuro dell’Intelligenza artificiale è più impegnativo: se costruissimo un robot con un’architettura molto complessa in stile GAN, sarebbe davvero cosciente? Sulla base di questa teoria, probabilmente sarebbe in grado di codificare in modo predittivo, esercitando lo stesso meccanismo di percezione che utilizza per la previsione dall’alto verso il basso o per l’immaginazione. Forse, come alcune delle reti generative attuali, potrebbe “sognare”. Come noi probabilmente non sarebbe in grado di razionalizzare un eventuale dolore – e potrebbe anche essere in grado di apprezzare gli spettacoli di magia.

Elaborare teorie della coscienza è notoriamente complesso, e ancora non sappiamo con precisione in cosa consista realmente. Quindi non saremmo in grado di stabilire se il nostro robot sia cosciente o meno. Ma, ancora una volta, non possiamo farlo con certezza neanche per quel riguarda gli animali. Sviluppando alcune congetture sul funzionamento della coscienza, possiamo iniziare a mettere alla prova le nostre ipotesi rispetto alle nostre intuizioni – e, cosa più importante, rispetto agli esperimenti. Quel che sappiamo è che un modello della mente che coinvolge un meccanismo interno del dubbio – un sistema di raccolta costantemente alla ricerca di falsi nella percezione – è una delle idee più promettenti mai elaborate finora.


Hakwan Lau è professore di neuroscienze all’università della California, a Los Angeles. collabora anche con l’università di Hong Kong e il suo lavoro è stato pubblicato su ScienceNature Neuroscience e Neuron tra le tante riviste scientifiche. vive e lavora a Los Angeles.

1 comment on “La coscienza è la battaglia tra credenza e percezione

  1. Molto interessante

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *