Per lungo tempo si è cercata una teoria che restituisca un’immagine completa e comprensibile dell’universo in cui viviamo; ma ci sono sempre stati degli intoppi. Ora, grazie al lavoro dello scienziato Stephen Wolfram, sembrano esserci delle importanti novità.
In copertina un’opera di piero dorazio “il chiaro, I°” oggi all’asta da pananti casa d’aste
Se avessimo chiesto solo pochi anni fa a un qualunque fisico teorico in cosa dovrebbe consistere un’ipotetica “teoria del tutto”, vale a dire una teoria “finale” in grado di spiegare tutti i fenomeni noti della fisica, la risposta sarebbe stata unanime: una qualche teoria in grado di unificare relatività generale e meccanica quantistica, vale a dire la forza gravitazionale – che la relatività spiega come un effetto della geometria dello spazio-tempo – con le altre tre forze fondamentali (elettromagnetica, interazione debole e interazione forte), che la teoria quantistica dei campi spiega come eccitazioni di un campo o, se preferiamo, come interazioni tra particelle subatomiche. Ciascuno, certo, avrebbe poi espresso le sue singolari preferenze verso l’una o l’altra ipotesi di gravità quantistica oggi sul mercato (teoria delle stringhe, loop quantum gravity, geometria non-commutativa e via dicendo) aggiungendo alcuni elementi essenziali per poter parlare di una vera e propria teoria del tutto: la capacità di spiegare i valori arbitrari delle particelle che compongono il Modello Standard, la più avanzata sistematizzazione dello zoo di particelle che compongono la materia di cui oggi disponiamo; una soluzione all’enigma della materia oscura, quella materia cioè di cui siamo in grado di misurare solo gli effetti gravitazionali dovuti alla massa, ma che non riusciamo a vedere in nessun modo e la cui natura ultima pertanto ci resta ignota; una soluzione al problema dell’energia oscura, quella forza misteriosa che sta accelerando l’espansione dell’universo, e che costituisce un buon 75% circa dell’insieme della materia-energia dell’intero cosmo; il perché i neutrini, che secondo il Modello Standard non dovrebbero possedere massa, ne hanno invece una infinitesimale ma sufficiente a consentirgli di oscillare continuamente tra tre diverse configurazioni; o ancora il motivo dell’asimmetria tra materia e antimateria.
Difficilmente avreste sentito qualcuno proporre di includere in una potenziale teoria del tutto la termodinamica. Il motivo è abbastanza evidente. I princìpi della termodinamica, che regolano le trasformazioni di calore e lavoro, sono noti fin dalla metà del XIX secolo, vengono appresi già alle scuole superiori e appartengono a quel dominio di rassicurante determinismo che chiamiamo “fisica classica”. Mentre altri pilastri della fisica classica sono stati in seguito minati dalle grandi rivoluzioni della fisica del XX secolo – la teoria della gravitazione di Newton dalla relatività generale, la teoria dell’interazione elettromagnetica di Maxwell dalla fisica quantistica – la termodinamica è rimasta al suo posto. Sir Arthur Eddington poté a buon diritto affermare che si possono avanzare teorie in grado di smentire le leggi di Maxwell o quelle di Einstein, ma per una qualsiasi nuova teoria che osasse sfidare la termodinamica, e in particolare il suo secondo principio, «non vi è nient’altro da fare che sprofondare nella più profonda umiliazione».
Pur essendo un assunto incontestabile della nostra realtà, il secondo principio della termodinamica è in realtà un profondo mistero. Nella classica formulazione di Clausius si limita a sostenere che non si può ottenere una trasformazione il cui risultato sia quello di trasferire calore da un corpo più freddo a uno più caldo senza l’apporto di lavoro esterno, ossia di energia. È un fatto che impariamo fin dalla tenera età: se in pieno inverno ci troviamo in una stanza senza riscaldamento, vedremo che le nostre mani si raffreddano e l’unico modo per riscaldarle sarà di sfregarle tra loro o avvicinarle a una fonte di calore, mentre di sicuro non riprenderanno spontaneamente calore dovessimo anche aspettare cent’anni. Un’altra formulazione del secondo principio della termodinamica è il suo postulato sull’impossibilità di una macchina del moto perpetuo, poiché una qualsiasi macchina finirà prima o poi per dissipare sempre più energia in forma di radiazione termica (calore), inutilizzabile per continuare a produrre lavoro, finché il calore dissipato supererà l’energia utilizzabile per il lavoro e la macchina si fermerà.
Ma è possibile estendere il secondo principio della termodinamica ottenendo ben più vaste generalizzazioni. Per esempio, quello stesso meccanismo che porta una tazza di tè a raffreddarsi in una stanza, raggiungendo la stessa temperatura dell’ambiente, o quello stesso meccanismo che implica l’inesorabile degradazione dell’energia di una macchina, permette – scoprì Lord Kelvin già nella seconda metà dell’Ottocento – di immaginare il destino ultimo dell’universo: la morte termica, che si verificherà quando, in un remotissimo futuro, spentesi tutte le stelle ed evaporati tutti i buchi neri, non ci sarà più energia da cui estrarre lavoro, cosicché ogni processo fisico-chimico si fermerà e non accadrà più nulla. Anche il tempo, infatti, si fermerà. L’altra grande generalizzazione del secondo principio consiste nella sua capacità di definire una freccia del tempo che va dal passato al futuro: il fluire del calore da un corpo caldo a un corpo freddo e non viceversa, la dissipazione dell’energia in forma di calore, sono esempi di processi irreversibili, che cioè non possiamo invertire anche impegnandoci in tutti i modi con macchinari sempre più potenti e sofisticati. A rendere impossibile rivivere un momento felice della nostra infanzia, e in generale tornare a un qualsiasi momento del passato nello stesso modo in cui possiamo muoverci nello spazio tornando allo stesso punto della stanza in cui ci trovavamo un istante fa, è proprio il secondo principio della termodinamica.
Benché tutto nella nostra esperienza ci spinga a dare per scontata l’irreversibilità del tempo, i fisici hanno scoperto che le leggi veramente fondamentali sono in realtà reversibili. L’interazione tra particelle è invariante per inversione temporale, vale a dire che se guardassimo una collisione di particelle al CERN di Ginevra in rewind, quindi facendo scorrere all’indietro le immagini, la fisica che regola la dinamica delle collisioni resterebbe identica, impendendoci di concludere che le immagini stanno scorrendo all’indietro. Questa simmetria temporale spinse il premio Nobel Richard Feynman a sostenere che il positrone, ossia l’antiparticella dell’elettrone, sia in realtà un elettrone che si muove indietro nel tempo. Ma anche la più comune fisica classica rispetta questo principio: sostituendo alle particelle che collidono in un acceleratore le più comuni palle del biliardo, non sapremmo dire se è stata la palla gialla a colpire quella verde o viceversa, a meno di non avere un contesto più ampio grazie al quale ricostruire le forze impresse (per esempio quella del giocatore che colpisce la palla gialla con la sua stecca). Persino nella relatività speciale esiste, in linea teorica, una simmetria temporale: ai segnali che si muovono avanti nel tempo la teoria affianca ipotetici segnali che si muoverebbero all’indietro, benché l’assenza di evidenze faccia presumere che si tratti di soluzioni matematiche prive di riscontro sul piano fisico.
Paradossalmente, dunque, pur essendo tanto importante, il secondo principio della termodinamica non sembra essere una legge fondamentale della natura. Ciò si spiega con il fatto che la sua validità si limita – per quel che ne sappiamo – ai soli sistemi macroscopici, vale a dire che si tratta di un principio emergente, come tale non fondamentale. A intuirlo per primo fu Ludwig Boltzmann, il fisico austriaco a cui si deve la riformulazione del secondo principio della termodinamica in termini di meccanica statistica. Boltzmann generalizzò ancora di più quel principio legato inizialmente al calore e al lavoro delle macchine osservando che la temperatura di un corpo non è una componente fondamentale, appartenente alle sue molecole, ma una proprietà emergente, data dall’energia posseduta dalle singole molecole, e più nello specifico dalla loro quantità di moto. Capì allora che anche l’entropia, ossia la quantità definita dal secondo principio del termodinamico, è una proprietà emergente come la temperatura. L’entropia di un corpo deriva dalla configurazione dei suoi microstati, ossia da come sono disposti i suoi componenti fondamentali (per esempio le sue molecole). Se esiste una sola configurazione possibile, allora l’entropia sarà zero. Se esistono molte configurazioni possibili, allora l’entropia sarà alta, anzi sarà tanto maggiore quanto maggiori saranno le potenziali configurazioni dei microstati (la formula di Boltzmann, nello specifico, dice che l’entropia è proporzionale al logaritmo dei microstati moltiplicato per una costante, la costante di Boltzmann).
In seguito a questa riformulazione, la seconda legge della termodinamica ha perso il suo status di potenziale legge fondamentale per diventare un principio statistico. Nello specifico, l’entropia può essere definita come una misura della nostra ignoranza relativa al sistema che misuriamo. Poiché esistono molte configurazioni possibili dei microstati del sistema in grado di produrre lo stesso macrostato – per esempio, le molecole di una tazza di tè si possono disporre in un’enorme quantità di configurazioni possibili mantenendo inalterata la temperatura del tè – tutto ciò che possediamo è una conoscenza probabilistica, la temperatura, e non una conoscenza esatta del sistema (la quantità di moto e la posizione di ogni singola molecola). Non solo: un processo irreversibile, come quello regolato dal secondo principio della termodinamica, è tale perché non siamo in grado di ricostruire a ritroso ciò che ha condotto allo stato presente, ossia non possiamo operare un’inversione temporale. Quando un cubetto di ghiaccio si scioglie in un bicchiere d’acqua, diventa impossibile ricostruire, analizzando il bicchiere d’acqua successivamente, che davvero un cubetto di ghiaccio sia stato sciolto al suo interno. L’irreversibilità del processo è prodotta dalla nostra ignoranza del suo passato.
L’entropia può essere considerata anche come la misura della quantità di disordine di un sistema: per esempio, anche se la Terra emette nello spazio tanta energia quanto ne riceve dal Sole, quella che ci arriva ha un’entropia più bassa perché l’energia è trasportata da un numero minore di fotoni rispetto a quelli che la Terra rilascia. L’energia irraggiata sotto forma di calore (nella frequenza dell’infrarosso) richiede un maggior numero di microstati; ne consegue che le disposizioni dei fotoni necessarie per ottenere la stessa quantità di energia sono maggiori e che quindi l’energia si trova in uno stato di maggiore disordine rispetto a quella emessa dal Sole
-->Così come la generalizzazione della seconda legge nella formulazione di Clausius e di Lord Kelvin ci permette di estrapolare il possibile destino ultimo dell’universo, la generalizzazione della formulazione di Boltzmann ci permette di estrapolare le possibili condizioni iniziali dell’universo. Com’era l’universo nell’istante zero, quello del Big Bang? Se la freccia del tempo è emersa insieme al Big Bang, vuol dire che l’aumento dell’entropia ha avuto inizio in quell’istante. Dunque lo stato iniziale dell’universo doveva possedere un’entropia molto bassa per consentirle di aumentare costantemente e inesorabilmente per tutta l’esistenza dell’universo. Quanto bassa? Certamente non zero: il terzo principio della termodinamica ci ricorda che l’entropia zero è propria solo di un solido perfettamente cristallino alla temperatura dello zero assoluto, e ciò in quanto un simile cristallo avrebbe una e una sola configurazione dei suoi microstati, i quali peraltro allo zero assoluto non possiederebbero nemmeno quantità di moto e quindi energia. Il Big Bang non assomiglia a nulla del genere. Questo punto a densità e temperatura virtualmente infinita doveva essere comunque in uno stato di “disordine” non indifferente, e tuttavia inferiore alla massima entropia dell’universo. Secondo i calcoli del fisico teorico Sean Carroll, l’entropia dell’universo al Big Bang doveva essere pari a 10^88, considerando i suoi microstati nella condizione ideale di un gas all’interno di un contenitore. Tuttavia, la massima entropia dell’universo è calcolata in 10^120, data dalla condizione che si verrebbe a creare se tutta la materia e l’energia si trovassero all’interno di un unico, enorme buco nero, poiché il buco nero è l’oggetto che possiede maggiore entropia in assoluto (dal momento che i suoi microstati si trovano in uno stato di estremo disordine).
Questo problema delle condizioni iniziali dell’universo, chiamato anche ipotesi del passato, che postula una condizione di bassa entropia al Big Bang, ha assunto negli ultimi decenni sempre più rilevanza nei discorsi dei fisici teorici. Si scontra, infatti, con diversi problemi. Innanzitutto con il principio di mediocrità a cui la scienza ci ha abituati: non c’è niente di speciale nel posto che occupiamo nell’universo, eppure sembra che affinché la complessità si sviluppi – e di conseguenza la vita – le condizioni iniziali dell’universo debbano essere davvero speciali. Il principio di mediocrità vorrebbe che ci trovassimo nella configurazione statisticamente più probabile di tutti, l’equilibrio termodinamico, che l’universo raggiungerà alla fine del tempo; eppure noi viviamo in un universo chiaramente non in equilibrio, con un’entropia crescente e irreversibile. Per cercare di spiegare questa situazione sono state inventare soluzioni paradossali, come quella secondo cui l’universo osservabile sarebbe solo una fluttuazione statistica in una più ampia configurazione di equilibrio termodinamico: vale a dire che oltre i confini di ciò che vediamo l’universo sarebbe effettivamente in equilibrio, ma noi ci troveremmo in un sotto-sistema peculiare non in equilibrio.
Statisticamente non è un’ipotesi impossibile: Henri Poincaré aveva già proposto, nel suo “teorema di ricorrenza”, che in un sistema chiuso – come per esempio un gas in un contenitore – si avranno prima o poi tutte le possibili configurazioni dei microstati, incluse quelle molto improbabili (per esempio una in cui tutte le molecole del gas si concentrano spontaneamente in un angolo del contenitore), benché questo teorema sia stato più volte messo in discussione. Dunque, statisticamente, l’entropia può ridursi, anche se ciò è talmente improbabile che il tempo di ricorrenza di una configurazione molto improbabile supera di gran lunga l’età dell’universo. E tuttavia, in un universo molto grande una fluttuazione statistica è sempre possibile, osservò Boltzmann, e noi potremmo vivere al suo interno. Recentemente questa ipotesi è stata messa in dubbio dallo scenario dei “cervelli di Boltzmann”: se una simile fluttuazione statistica è spiegabile per il semplice fatto che in sua assenza non esisterebbe vita intelligente in grado di riflettere su una simile condizione sommamente improbabile (ossia per ragioni di autoselezione di natura antropica), allora la configurazione più probabile sarebbe quella in cui una fluttuazione statistica produce direttamente dei cervelli umani fluttuanti nel vuoto, già dotati di presunti ricordi del passato e di presunte percezioni della realtà presente, facendo a meno di tutto il resto dell’universo osservabile a contorno, che sarebbe solo un’illusione all’interno di questi cervelli. Questa sarebbe una condizione più probabile di quella che prevede lo sviluppo di un intero universo come quello che conosciamo. Dunque la soluzione di Boltzmann all’ipotesi del passato non sembra funzionare.
Un’ipotesi più elegante è quella che prevede che, a dispetto delle apparenze, l’entropia sia davvero reversibile, e che pertanto la freccia del tempo non muova solamente dal passato al futuro, ma anche in senso inverso. Simili ipotesi sono state studiate in passato da diversi cosmologi, soprattutto in un ipotetico scenario in cui l’espansione dell’universo si fermasse in un remoto futuro e il processo si invertisse in una contrazione destinata a finire in un Big Crunch. Tuttavia, il meccanismo non sembra funzionare, poiché anche in un universo in contrazione il disordine e la degradazione dell’energia non farebbero che aumentare. È possibile però immaginare un “antiuniverso”, un universo come il nostro ma in cui carica, parità e tempo sono invertiti. Il teorema CPT sostiene che le leggi fondamentali della fisica sono simmetriche per inversione di carica (C), parità (P) e tempo (T): per esempio un positrone è un elettrone con carica invertita (positiva anziché negativa), e una particella può essere ruotata o resa speculare rispetto all’originale senza che modifichi le sue proprietà, e dell’inversione temporale abbiamo già parlato. Mentre ciascuna di queste simmetrie può essere violata, una violazione simultanea di tutte e tre non è mai stata osservata. Un antiuniverso dove il teorema CPT è conservato sarebbe un universo-specchio dove le posizioni delle particelle – o meglio delle antiparticelle – sarebbe invertita e in cui la freccia del tempo muoverebbe dal futuro verso il passato. Questa idea è stata recentemente esplorata da Neil Turok e Latham Boyle del Perimeter Institute a Waterloo, in Ontario, ma la formulazione più elegante è quella offerta della teoria del “punto Giano” (Janus point) di Julian Barbour.
Caso singolare di un fisico teorico influentissimo seppure privo di una cattedra universitaria, Barbour vive da decenni nei dintorni di Oxford, in un antico cottage del Seicento, meta di pellegrinaggio di nomi illustri come il premio Nobel Roger Penrose e uno dei fondatori della loop quantum gravity, Lee Smolin. Barbour è anche l’autore di un celebre testo solo apparentemente divulgativo, La fine del tempo (1999), che presenta la sua singolare idea secondo cui l’universo sarebbe essenzialmente atemporale: la sensazione dello scorrere del tempo, e dunque l’apparente freccia del tempo attribuita all’entropia, deriverebbe dal fatto che in uno spazio matematico ideale, lo spazio delle configurazioni (da Barbour ribattezzato “Platonia”, omaggio all’iperuranio platonico), esistono innumerevoli configurazioni cosmologiche, gli “Adesso”, ciascuna delle quali rappresenta un’istantanea dell’universo in un determinato momento, completa di tracce e ricordi del passato, similmente ai cervelli di Boltzmann. In termini di probabilità, gli Adesso che presentano una variazione minima tra loro sono maggiori, e il loro succedersi permette di definire una sorta di storia dell’universo simile a quella che vediamo. La storia di universo in cui viviamo è semplicemente la più probabile.
Già in quel libro Barbour buttava lì, tra le tante idee, quella secondo cui potrebbero esistere diverse “linee di universo”, tutte dipartentesi dallo stesso punto (Alfa), in ciascuna delle quali si percepirebbe una freccia del tempo orientata verso il futuro anche se, guardandola dal nostro punto di vista, avrebbe un orientamento opposto. Nel suo recente The Janus Point (2020) Barbour ritorna su queste idee proponendo una nuova teoria, quella del punto Giano, approfondita in precedenti pubblicazioni scientifiche con i suoi collaboratori. Quello che precedentemente Barbour definiva il punto Alfa, e che noi chiamiamo la singolarità all’origine dell’universo (o Big Bang), qui diventa il punto Giano, che prende il nome dal dio romano bifronte le cui due facce guardano rispettivamente verso il futuro e verso il passato. Analogamente, secondo Barbour dal punto Giano si estenderebbero universi diversi, di cui almeno uno speculare al nostro nel quale la freccia del tempo, dal nostro punto di vista, avrebbe senso contrario, ma nel quale si percepirebbe ugualmente un’entropia in crescita che orienta il tempo in un’unica direzione, dal passato al futuro. Presi globalmente, tuttavia, questi universi ripristinerebbero la simmetria temporale che nel nostro universo sembra spezzata.
Affinché ciò sia possibile, è necessario secondo Barbour superare la concezione secondo cui l’universo sia un sistema chiuso. Sappiamo che l’entropia di un sistema termicamente chiuso (come un gas in un contenitore) può solo aumentare; localmente è possibile mantenere bassa l’entropia grazia allo scambio di calore con l’esterno, come fa la Terra emettendo radiazione ad alta entropia, in tal modo rallentando l’inesorabile crescita del disordine e permettendo lo sviluppo di strutture complesse. Ma poiché non c’è nulla di esterno all’universo, questo è inesorabilmente un sistema chiuso; da qui la convinzione che il suo destino ultimo non possa che essere la morte termica. Viceversa, secondo Barbour la teoria del punto Giano permette di ritornare a un’idea di universo (o meglio, multiverso) infinito, dove al posto dell’entropia c’è un’altra quantità, l’entassia (dal greco “verso l’ordine”), che anziché crescere decresce: al decrescere dell’entassia corrisponde un aumento della complessità dell’universo, fatto che risolve l’apparente paradosso di un universo dove il disordine crescente produce tuttavia col passare del tempo strutture complesse come galassie, stelle, pianeti e forme di vita. In questa nuova visione cosmologica l’universo procede verso una crescita infinita di complessità, destino certamente più ottimistico rispetto a quello della morte termica, poiché l’equilibrio termodinamico si produce solo nei sistemi chiusi. In un sistema aperto come sarebbe l’universo di Barbour, inoltre, il teorema di ricorrenza di Poincaré non avrebbe valenza (non è mai possibile tornare a una configurazione dei microstati precedente, essendo le configurazioni possibili infinite), evitando così il paradosso dei cervelli di Boltzmann.
C’è da dire – come ricorda Matthew Johnson commentando la teoria di Barbour su Science – che le evidenze cosmologiche parlano al momento di un universo come sistema termicamente chiuso: per il fatto di espandersi in modo accelerato a causa dell’energia oscura, l’universo osservabile possiede un orizzonte degli eventi, similmente a un buco nero, ossia un confine oltre il quale non ci è dato di conoscere l’altra parte. Proprio gli studi sulla termodinamica dei buchi neri ci hanno rivelato che un orizzonte degli eventi non solo possiede entropia, ma che anch’essa non può far altro che aumentare. Peraltro esistono teorie della fisica molto avanzate e promettenti, come in particolare la corrispondenza AdS/CFT che rappresenta il più recente sviluppo nella cosmologia delle stringhe (una delle più promettenti “teorie del tutto”), che si basano proprio sul fatto che l’universo possieda un confine, quindi sia un sistema termicamente chiuso. Il che rappresenta, se non una smentita della teoria di Barbour, certamente uno scenario che richiederà maggiore approfondimento nei futuri sviluppi del modello.
Ancora più ambiziosa – e ugualmente basata sugli indizi provenienti dalla seconda legge della termodinamica – è la “teoria del tutto” proposta da Chiara Marletto, discepola del noto fisico oxoniense David Deutsch, pioniere della computazione quantistica. Marletto, torinese di nascita e studi, oggi ricercatrice a Oxford, si è ispirata alla visione computazionale del suo maestro per elaborare quella che definisce “la scienza di ciò che si può e non si può” (The Science of Can and Can’t, titolo del suo libro uscito nel 2021). Si tratta di una ridefinizione della fisica basata sui controfattuali: concetto ben noto in filosofia della scienza, un controfattuale è un’asserzione contraria alla realtà dei fatti. La termodinamica, per esempio, è piena di controfattuali: ci dice che non si può ridurre l’entropia, non si può creare una macchina del moto perpetuo, non si può invertire la freccia del tempo. Ma a ben pensarci tutta la fisica è piena di controfattuali: la relatività speciale ci dice che non si può superare la velocità della luce, la relatività generale che non è possibile uscire dall’orizzonte degli eventi di un buco nero, la meccanica quantistica che non è possibile misurare contemporaneamente posizione e quantità di moto di una particella, e così via. Al tempo stesso, naturalmente, la fisica ci dice anche che molte cose sono possibili, benché alcune non siano necessariamente reali. Per esempio la relatività consente curve chiuse di tipo tempo, attraverso cui un segnale o un oggetto spostandosi nello spaziotempo torna nel passato da cui è partito; la meccanica quantistica consente, nell’interpretazione di Everett-DeWitt, l’esistenza di molteplici (se non infinite) diramazioni di universo; la teoria delle stringhe ammette l’esistenza di innumerevoli topologie ciascuna delle quali descrive un universo con parametri diversi dal nostro. Nulla di tutto ciò è dimostrato, ma in teoria è possibile.
Per Marletto, la fisica moderna fondata sulle condizioni iniziali di un sistema e sulle leggi che ne descrivono la dinamica successiva è destinata al fallimento, poiché non in grado di spiegare perché certe cose esistono e altre no. Alcuni dei più profondi problemi aperti della fisica teorica sembrano in effetti avere a che fare con controfattuali. Per esempio, il problema delle meta-leggi: perché le leggi fondamentali della fisica sono queste e non altre? Cosa determina la loro natura? Un approccio tradizionale a queste domande ci porterebbe a un regressus in infinitum, cercando di individuare leggi sempre più fondamentali (le meta-leggi) che spiegano le leggi fondamentali. Oppure richiederebbe di postulare l’esistenza di un multiverso, dove tutte le possibili leggi e tutti i possibili valori dei parametri fondamentali della natura trovano realizzazione in altri universi diversi dal nostro. Un’ipotesi sempre più seducente ma che sembra mettere in discussione gli assunti su cui si basa il metodo scientifico.
Nell’approccio di Marletto, la possibilità che le leggi di natura possano essere diverse è un fatto ovvio che determina un vasto insieme di possibili universi alternativi, ciascuno regolato da leggi diverse; questo non significa però che tali universi siano reali: esistono solo in potenza, benché il fatto di poter esistere di per sé giustifica il fatto che il nostro universo abbia queste leggi e non altre senza far ricorso al disegno intelligente, al principio antropico o a una infinita ricerca di verità fondamentali.
La scienza di ciò che è possibile e ciò che non lo è approda inevitabilmente a una ridefinizione della fisica in termini di informazioni. E l’informazione è un concetto sempre più strettamente intrecciato con l’entropia e quindi descrivibile attraverso la seconda legge della termodinamica, come per primo si rese conto nel 1948 il pioniere della teoria dell’informazione Claude Shannon. L’entropia può essere definita come una misura della perdita di informazione. Tanto meno informazione possiamo estrarre da un sistema oggetto di misurazione, quanto più alta sarà la sua entropia. Un libro presenta una grande quantità di informazione estraibile, poiché tale informazione è presentata all’osservatore in una forma molto ben strutturata e ordinata; una volta bruciato, un libro conterrà ancora informazione sul suo contenuto, ma estrarla sarà pressoché impossibile, perché resa ormai solamente in forma di fumo e cenere. La sua entropia crescerà. Questo spiega anche perché i buchi neri sono gli oggetti con la più alta entropia nell’universo: come afferma il teorema no-hair, dei buchi neri possiamo sapere solo tre cose, ossia la loro massa, la loro carica elettrica e il loro momento angolare. Di tutto ciò che ci è finito dentro – della stella originaria da cui si è formato, di altre stelle o buchi neri con cui si è fuso, di pianeti, comete, asteroidi, astronavi aliene e via dicendo – non saremo mai in grado di sapere niente, anche se, in linea teorica, la loro informazione è tutta lì, inscritta nell’orizzonte degli eventi (la cui area definisce il valore dell’entropia di un buco nero).
Il nostro universo è disseminato di sistemi semplici o complessi che possiedono la capacità di trasmettere informazione, ci ricorda Chiara Marletto. Un faro, la musica, le luci intermittenti degli aerei sfruttano le leggi dell’elettromagnetismo per trasmettere informazione. Ciò che li caratterizza è proprio questa capacità, nello specifico la capacità di assumere almeno due stati diversi, acceso (on) e spento (off). Perché ciò abbia senso abbiamo altresì bisogno di qualcuno o qualcosa che sia in grado di interpretare questi stati diversi come segnali. In sostanza, di sistemi in grado di performare un’operazione di copia, attraverso cui l’informazione viene trasferita da un sistema a un altro. L’informatica si basa esattamente su questo meccanismo, poiché usiamo il codice binario fondato su 0 e 1 per generare informazione e copiarla molteplici volte per generare trasformazioni. Ma in realtà, come si rese conto tra i primi il grande fisico teorico John Wheeler, quasi tutta la fisica fondamentale si fonda su questi due princìpi: l’interazione tra particelle, la misurazione di un sistema quantistico, ovviamente la termodinamica. L’informazione è una proprietà fisica; ed è basata su controfattuali, poiché ciò che possiamo dire di un sistema è essenzialmente se sia o meno in grado di generare e trasmettere informazione, ossia se soddisfa la doppia condizione di passare da uno stato all’altro e di copiare l’informazione.
Ciò consente anche di riscrivere la meccanica quantistica in termini di informazione e di controfattuali. Il principio di indeterminazione di Heisenberg può essere riletto come l’impossibilità di copiare simultaneamente l’informazione sulla posizione e sulla quantità di moto di una particella. La misurazione quantistica, quel processo ciò che porta un sistema quantistico (come una particella) a passare da una sovrapposizione tra stati diversi a un unico stato determinato e misurabile, è un processo di estrazione dell’informazione dal sistema misurato. Di un sistema quantistico possiamo dire che può assumere stati diversi (per esempio posizioni diverse e quantità di energia diverse nell’orbitale atomico, se si tratta di un elettrone), ma non è detto che tutti siano reali, poiché a seguito della misurazione misuriamo un unico stato. Anche questa è una proprietà controfattuale. E poiché quel che facciamo è acquisire informazione, è giusto affermare che l’unità fondamentale della fisica potrebbe essere il qubit, cioè la versione quantistica del bit, che nella teoria informatica rappresenta l’unità fondamentale di informazione (tutto ciò che ci dice è se uno stato è on o off). Troviamo così un modo elegante di unificare fisica classica e fisica quantistica, che diventano due facce di una stessa medaglia, quella dell’informazione, ossia essenzialmente della termodinamica.
Affrontando la seconda legge della termodinamica nella sua essenza, ossia riguardo il problema della irreversibilità che comporta, Marletto scompone le trasformazioni che riguardo l’energia in due aspetti: trasformazioni di tipo lavoro e trasformazioni di tipo calore. Laddove le prime sono reversibili a patto di aumentare l’energia necessaria a una macchina per compiere il lavoro di inversione del processo, le seconde non lo sono poiché non esistono macchine in grado di compiere il lavoro di inversione, a prescindere dalla quantità di energia impiegata. Le trasformazioni di tipo lavoro sono in grado di trasmettere informazione; quelle di tipo calore no. Producendo una perdita di informazione, tali trasformazioni sono destinate a far aumentare l’entropia di un sistema. Ma, di nuovo, possiamo ridefinire tutta la termodinamica in funzione di ciò che si può e non si può fare e in termini di informazione, senza scomodare la statistica, come ha fatto Boltzmann, che aveva reso il secondo principio della termodinamica una legge non fondamentale. Per Marletto essa è invece fondamentale come tutte le altre, anzi determinante per definire l’aspetto essenziale dell’universo, vale a dire la sua capacità di generare e copiare informazione.
L’idea di pervenire una sorta di teoria del tutto attraverso la teoria dell’informazione non è nuova. Wheeler l’aveva tradotta – con il suo tipico talento per le formule – nello slogan It from Bit: più che una teoria, un programma di ricerca, su cui a partire dagli anni Ottanta hanno iniziato a lavorare diversi studiosi, tra cui David Deutsch, il mentore di Chiara Marletto, e in generale i fisici teorici interessati agli aspetti della computazione quantistica, che hanno proposto conseguentemente di aggiornare la formulazione di Wheeler adottando quella di It from Qubit. Ma ancor prima di Wheeler la possibilità di pervenire alle leggi fondamentali della fisica attraverso un approccio emergente tipico di un fenomeno come quello dell’entropia – e dunque dell’informazione – era stato seguito dalla prima generazione di fisici computazionali, quella di geni come Alan Turing e John von Neumann. Come ricorda lo storico George B. Dyson nel suo libro L’evoluzione delle macchine (1997): «Nel 1948 von Neumann osservava che la teoria dell’informazione e la termodinamica mostravano dei parallelismi che sarebbero diventati più profondi man mano che i due campi fossero stati esplorati a livello matematico. Negli ultimi anni della sua vita stroncata prematuramente, von Neumann cominciò a teorizzare sul comportamento di popolazioni di automi comunicati, un capo in cui adesso i parallelismi con la termodinamica (…) cominciano a funzionare in entrambi i sensi».
Gli esperimenti svolti da Turing, von Neumann e Nils Barricelli con i primi calcolatori portarono alla scoperta degli automi cellulari, semplici costrutti artificiali – algoritmi – che, seguendo un minimo set di regole di riproduzione, sono in grado di generare spontaneamente strutture sempre più complesse, come mostra l’applicazione più celebre di questa scoperta, il Gioco della Vita di John Conway. Il più recente tentativo di estendere la teoria degli automi cellulari alla comprensione delle leggi della fisica è stato compiuto da Stephen Wolfram, geniale ed eccentrico fisico e informatico che ha probabilmente ispirato il personaggio dello scienziato miliardario Edmond Kirsch nel romanzo Origin (2017) di Dan Brown. Come Kirsch, Wolfram è convinto di aver dimostrato come le strutture complesse – inclusa la vita intelligente – siano in grado di svilupparsi da semplici algoritmi e istruzioni di tipo on-off replicabili su un computer. Ex enfant prodige (autore di un primo articolo scientifico a 15 anni, dottorato di ricerca a 20), Wolfram si è fatto un nome grazie al suo linguaggio di programmazione alla base di un celebre software di calcolo avanzato, Mathematica. Ma il pallino della fisica gli è sempre rimasto, insieme alla convinzione dell’esistenza di un intimo collegamento tra informatica e fisica fondamentale. A partire dagli anni Ottanta, Wolfram riprese la teoria degli automi cellulari di von Neumann iniziando a convincersi che sia possibile, facendo girare un programma di auto-replicazione degli automi cellulari, pervenire alle leggi alla base della fisica. La sua “scoperta preferita” si chiama rule 30: il più semplice programma immaginabile, che opera su righe di celle bianche e nere partendo da una singola cella nera e facendola replicare attraverso alcune semplici regole fino a generare strutture di inedita complessità (fig. 1).

In realtà, Wolfram ha fatto altro che riscoprire gli esperimenti di Barricelli, ma – nel tipico atteggiamento da yuppie della Silicon Valley – è convinto di esserci arrivato per primo. Certo mai prima di allora la teoria degli automi cellulari (esposta in un testo postumo di von Neumann pubblicato nel 1966) è stata spinta a tali livelli di ambizione. Nel suo mastodontico best-seller A New Kind of Science (2002), Wolfram presenta l’idea che l’intero universo sia equivalente a un computer; e in effetti due anni più tardi viene dimostrato che un automa cellulare denominato rule 110 è Turing-completo, vale a dire che è in grado idealmente di svolgere qualsiasi tipo di calcolo, esattamente come una macchina di Turing universale. Ciò equivarrebbe a dire che l’universo è “computazionalmente equivalente” a un automa cellulare, o a un computer.
Nel 2020 Wolfram ha pubblicato online l’annuncio di una sensazionale scoperta, una completa riformulazione della fisica attraverso il suo paradigma computazionale, poi pubblicata nello stesso anno in A Project to Find the Fundamental Theory of Physics, imponente (oltre 750 pagine) e ambizioso quanto il precedente. Da un semplice insieme di relazioni tra pochi elementi astratti come {{1, 2}, {2, 3}, {3, 4}, {2, 4}}, rappresentabili attraverso un grafo, e grazie a un altrettanto semplice set di regole per la loro riproduzione, Wolfram arriva non solo a sviluppare strutture di enorme complessità (fig. 2), anche in più dimensioni, ma persino a riscoprire le leggi della fisica: il suo modello può riprodurre le equazioni della relatività speciale e della relatività generale di Einstein, nonché quelle della termodinamica.

Alla base c’è quello che Wolfram chiama “principio di irriducibilità computazionale”: non è possibile una teoria del tutto che, a partire da princìpi primi e dalle condizioni iniziali, consenta di estrapolare lo stato dell’universo in un determinato istante futuro; così come nel software di Wolfram le strutture complesse nascono in modo casuale facendo girare il programma per un certo tempo, ossia attraverso il mero calcolo con continue iterazioni delle stesse regole di riproduzione, in fisica per riuscire a ricostruire l’evoluzione di un sistema dovremmo riprodurre all’indietro tutto il percorso compiuto dal Big Bang a oggi, il che è semplicemente impossibile. Ecco perché la seconda legge della termodinamica prevede fenomeni irreversibili: perché l’evoluzione della complessità è del tutto casuale e non può mai essere riprodotta a ritroso. Quando una vasta serie di grafi nel programma di Wolfram si fondono tra loro per generare una struttura complessa (un ipergrafo), diventa impossibile capire all’inverso qual è il percorso che l’ha generata, esattamente come nell’esempio in cui è impossibile dedurre che in un bicchiere d’acqua sia stato in precedenza sciolto un cubetto di ghiaccio. Questo meccanismo, secondo Wolfram, riproduce anche le proprietà dell’indeterminazione quantistica, poiché anche il collasso della funzione d’onda che si verifica all’atto della misurazione di un sistema quantistico è un processo irreversibile (quando misuriamo un determinato stato del sistema ci è impossibile ricostruire a ritroso la sovrapposizione dei diversi stati in cui il sistema si trovava in precedenza). Di nuovo, la riformulazione dell’entropia in chiave di teoria dell’informazione consente una sorta di unificazione tra fisica classica e fisica quantistica, la “teoria del tutto” annunciata da Wolfram.
Attraverso gli automi cellulari, Wolfram ritiene non solo di aver riprodotto fenomeni noti come i buchi neri o il modello standard delle particelle, ma di aver persino trovato la causa della materia oscura. Nel suo modello, infatti, l’unità minima dello spazio è pari a 10-93 metri, enormemente inferiore all’unità di Planck (10-35) considerata dalle attuali teorie la lunghezza più piccola in natura, mentre l’unità minima della massa sarebbe di 10-30, ossia 1036 inferiore rispetto alla massa dell’elettrone. C’è dunque un sacco di spazio per particelle di raggio e di massa più piccole di quelle note, che Wolfram chiama “oligoni”, le quali interagirebbero molto debolmente con la materia ordinaria, esattamente come sembra comportarsi la materia oscura!
In seguito alla pubblicazione del suo nuovo libro, Wolfram ha lanciato un progetto partecipativo per verificare gli assunti di questa nuova “teoria del tutto”. Obiettivamente si tratta di ipotesi seducenti, ma non nuove. Stephen Hawking, nel suo Il grande disegno (2010), aveva già affrontato la possibilità che gli automi cellulari possano spiegare l’emergere della complessità nell’universo da poche semplici regole. Pur essendo ampiamente possibilista su tale ipotesi, ammetteva che la teoria degli automi cellulari lascia aperte domande fondamentali sulla reale natura di questi oggetti. Sistemi complessi con tutti gli attributi della vita (replicazione, mutazione, ereditarietà dei caratteri ecc.) sono davvero vivi? È possibile cioè generare la vita all’interno di un modello del genere, come sostengono i teorici dell’artificial life? E, su un piano solo apparentemente più semplice, c’è davvero una corrispondenza tra questi modelli e la fisica del nostro universo?
La domanda ha a che fare, essenzialmente, con il programma di ricerca di Wheeler: esiste davvero una corrispondenza tra le cose (it) e l’informazione (bit)? Se sì, la risposta si cela certamente nei profondi misteri della seconda legge della termodinamica e di quella multiforme ed elusiva quantità che chiamiamo entropia. Semmai una teoria del tutto sarà davvero conseguita nella fisica fondamentale, questo sarà quasi certamente l’ingrediente fondamentale per far tornare i conti e restituire un’immagine comprensibile dell’universo in cui viviamo.
Roberto Paura (1986) è giornalista e saggista specializzato in comunicazione della scienza. Collabora o ha collaborato con Delos, Esquire, Fanpage, Il Tascabile, Motherboard, NOT, Query. È direttore della rivista Futuri e vicedirettore di Quaderni d’altri tempi. È dottore di ricerca in comunicazione della fisica all’Università di Perugia. Ha pubblicato finora cinque libri.
Articolo molto ben fatto e straordinariamente chiaro. Grazie mille.
Giusto un’osservazione: oltre ai link ci starebbe un po’ di bibliografia.
[…] L’Indiscreto un bell’articolo – corposo – di Roberto Paura che indaga fenomeni fisici connessi […]