Per Kupiec l’idea che un essere vivente sia solo l’esito di un «programma genetico» non regge più. La vita non è scritta da nessuna parte. È tempo che si affermi un nuovo paradigma scientifico in grado di affrancarsi dal dogma deterministico e di riconoscere la variabilità come proprietà primaria del vivente.
IN COPERTINA e nel testo, Garden-Journey#13, Chang Kyum Kim (2012)
Questo testo è tratto da La concezione anarchica del vivente, di Jean-Jacques Kupiec. Ringraziamo Eleuthera editore per la gentile concessione.
di Jean-Jacques Kupiec
L’idea di ordine, per non dire l’ossessione nei confronti dell’ordine, è di ostacolo alla comprensione del vivente. Poggia infatti sulla convinzione che ogni cosa sia determinata dalle relazioni che intrattiene con gli altri, che abbia un posto assegnato e che il mondo non possa esistere altrimenti. Questa idea imperversa in ogni ambito, ma il suo campo privilegiato è quello della vita. L’essere vivente sarebbe, secondo questa interpretazione, un esempio perfetto di organizzazione e ciascuna delle sue parti esisterebbe esclusivamente per assicurarne il buon funzionamento. D’altronde, viene definito «organismo»: il nome stesso evoca tutta una filosofia. È pur vero che ci sono coloro che sostengono l’«ordine dall’ordine», secondo i quali l’ordine biologico deriva da un ordine molecolare, a sua volta inscritto nei geni da loro chiamati «informazione genetica», e coloro che invece predicano l’«ordine dal rumore», secondo i quali l’ordine biologico deriva da un ordine molecolare perturbato da accidenti, in un processo che chiamano «auto-organizzazione». Tutti però sono concordi nell’affermare l’esistenza di un ordine del quale pretendono di spiegare la genesi.
Tuttavia, una scoperta contraddice l’idea stessa di ordine: il funzionamento del genoma è probabilistico. Basta dare un’occhiata alla storia della biologia per capirne l’importanza. Fin dall’antichità si è ritenuto ovvio che il caso non potesse essere un agente causale della vita. Darwin ha senz’altro iniziato a sfatare questo luogo comune spiegando come gli esseri viventi si trasformino grazie a variazioni aleatorie sottoposte alla selezione naturale. Ma tale teoria riguarda solamente l’evoluzione. L’ontogenesi, invece, continua a essere considerata un fenomeno deterministico. L’idea che il caso possa giocarvi un ruolo chiave non è stata quasi mai presa in considerazione. Così Erwin Schrödinger (1887-1961), quando nel 1944 getta le basi teoriche della biologia molecolare, contrappone l’inerte al vivente e riafferma il dogma deterministico erigendo l’ordine a principio fondamentale del vivente1. Quel che viene chiamato «ordine» nel mondo inerte si produce a partire da ciò che viene definito «disordine». L’ordine fisico macroscopico, cioè quello che si verifica al livello delle nostre percezioni, descritto dalle leggi deterministiche scaturisce dal comportamento probabilistico di atomi e molecole. Per via dell’immenso numero di particelle implicate in qualsiasi sistema fisico, le loro variazioni individuali si annullano rendendo trascurabile la variazione del sistema complessivo2. Schrödinger scarta l’idea che un simile «principio dell’ordine dal disordine» possa trovarsi all’opera nel vivente, sostenendo che l’ordine macroscopico derivi dall’ordine molecolare perché le molecole biologiche non si comporterebbero in modo probabilistico ma al contrario in maniera molto specifica3. Questo «principio dell’ordine dall’ordine» evocato da Schrödinger corrisponde a quella che alcuni anni dopo è stata chiamata «informazione genetica»4. Com’è noto, i biologi non pensano che il vivente funzioni secondo le leggi della fisica statistica, ma che sia invece guidato da un’informazione genetica codificata nel dna, la cui espressione corrisponderebbe a un programma. Inizialmente teorizzato da Schrödinger, questo determinismo genetico è stato sostenuto in maniera ricorrente da tutti i nomi principali della biologia molecolare. Dopo il chiarimento della struttura del dna nel 1953, il concetto di informazione genetica è diventato la chiave universale per spiegare la vita. Per quanto riguarda l’espressione dei geni5, si è pensato che alcune proteine regolatrici agissero come segnali binari, avviando o inibendo la loro attività. Si diceva quindi che un gene era «acceso» o «spento». Di conseguenza, si è creduto anche che in una data cellula una proteina o vi era espressa o non lo era, e che tutte le cellule riceventi i medesimi segnali esprimevano i geni in maniera identica. Questa visione deterministica ha tenuto banco all’incirca fino agli anni Duemila. Prima era tecnicamente impossibile lo studio dell’espressione dei geni in singole cellule. I dati potevano essere ottenuti solo su grandi popolazioni di cellule prese tutte insieme. Perciò era possibile misurare solo la media dell’espressione genica in seno a grandi popolazioni cellulari. Questa situazione si è evoluta quando nuove tecniche hanno consentito lo studio in singole cellule. È allora diventata evidente l’esistenza di una grande variabilità intercellulare di espressione genica. Due cellule non esprimono mai i geni in maniera identica, anche se possono essere dello stesso tipo, possedere lo stesso genoma e vivere nello stesso ambiente, ricevendo quindi gli stessi segnali. Tale variabilità intercellulare è spiegabile unicamente attraverso modelli stocastici (probabilistici, aleatori) nei quali ai geni vengono assegnate probabilità di espressione6.
L’espressione stocastica (aleatoria) dei geni pone un problema: contraddice completamente il principio dell’ordine dall’ordine di Schrödinger. Colloca la probabilità nel cuore stesso della genetica e ne minaccia il fondamento. L’espressione genica è il passaggio fondamentale che dovrebbe consentire ai geni di esercitare il loro potere. Se il loro funzionamento è aleatorio, come spiegare il fatto che eseguano in maniera precisa le istruzioni di un programma codificato nel genoma? La questione è a tal punto essenziale che a buon diritto ci domandiamo se non sia il caso di rimettere in discussione l’attuale paradigma deterministico della biologia. Ed è appunto questo l’argomento del libro. Nel quale si sostiene che fin dalla nascita la genetica ha incontrato una serie di problemi derivanti dal suo determinismo, il cui punto culminante è stato toccato proprio con la scoperta dell’espressione stocastica dei geni. Dal momento che questi problemi toccano le fondamenta stesse della genetica, non è possibile riformarla. È quindi necessaria una teoria anarchica7 che rifiuti l’ordine come principio primo e riconosca invece al suo posto la variazione aleatoria.
1.1. Accettare la variazione aleatoria
Un celebre testo di Pierre-Simon Laplace (1749-1827) ben illustra ciò che abitualmente intendiamo per «determinismo», descrivendo un mondo in cui la concatenazione di cause ed effetti certi escluderebbe la variazione aleatoria:
Dobbiamo quindi considerare lo stato attuale dell’universo come effetto del suo stato anteriore e come causa di quello che seguirà. Un’intelligenza che, in un istante dato, conoscesse tutte le forze che animano la natura e le rispettive situazioni degli esseri che la compongono, se fosse sufficientemente vasta per sottoporre questi dati all’analisi, abbraccerebbe nella medesima formula i movimenti dei corpi più grandi dell’universo e quelli del più leggero fra gli atomi; per essa nulla sarebbe incerto e ai suoi occhi sarebbero presenti l’avvenire così come il passato8.
-->L’intelligenza qui in questione è nota come il «demone di Laplace», figura a cui spesso si fa riferimento nelle discussioni sul determinismo. Di fatto, già René Descartes (1596-1650) aveva sviluppato a suo tempo la visione meccanicistica e l’aveva proiettata sul vivente. Nonostante nella citazione che segue la problematica di Descartes sia distinta da quella di Laplace, dal momento che non pretende di calcolare tutti gli stati del mondo ma solo di render conto del vivente, ritroviamo però in lui un’idea analoga. A suo avviso, un essere vivente, al pari dell’universo di Laplace, è interamente determinato dalle concatenazioni di cause ed effetti certi. La conoscenza microscopica esaustiva della «semenza» di un essere deve permettere la conoscenza dell’essere intero:
Se conoscessimo bene tutte le parti della semenza di una particolare specie animale, ad esempio dell’uomo, da questo unico elemento potremmo dedurre, mediante ragionamenti completamente matematici e certi, la figura completa e la conformazione di ciascuno dei suoi membri9.
Questa visione deterministica è perdurata e si è imposta nel xx secolo con il determinismo genetico. La causa è diventata così l’informazione genetica contenuta nei cromosomi: un concentrato di ordine (un codice) che irraggia il vivente con una sequenza di cause ed effetti certi di cui è all’origine:
Paragonando la struttura della fibra cromatinica al testo di un codice, si vuol significare che la mente universale, di cui parla Laplace, alla quale ogni connessione causale si manifesta immediatamente, potrebbe dire dalla loro struttura se l’uovo si svilupperà, in opportune condizioni, in un gallo nero o in una gallina maculata, in una mosca o in una pianta di granoturco, un rododendro, uno scarafaggio, un topo o una donna10.
È significativa la somiglianza fra queste citazioni, scritte a secoli di distanza e in contesti scientifici molto diversi, che testimonia la pregnanza del modo di pensare deterministico. Laplace, Descartes e Schrödinger, ognuno a suo modo, escludono la variazione aleatoria11. Eppure essa è onnipresente, ovunque all’opera nel vivente, dalla molecola all’intero essere. Il che disturba gli adepti dell’ordine e sovverte la loro visione di un mondo organizzato come una macchina, in cui l’inatteso non esiste. Proprio per questo hanno elaborato una strategia per renderla inoffensiva: la riducono a essere solo un «rumore», o una «fluttuazione». Effettivamente, a ben guardare lo statuto della variazione aleatoria in biologia è davvero paradossale. Da una parte è chiaro che tutti i parametri biologici sono variabili, a qualsiasi scala, dalla molecola agli esseri completi. Ogni biologo ne è perfettamente consapevole. Ma dall’altra, nonostante l’onnipresenza della variabilità sia del tutto evidente, non si ritiene che essa giochi un ruolo importante nella biologia funzionale12. Non viene percepita come il segnale di un fenomeno intrinsecamente stocastico, ma come un margine di fluttuazione inevitabile nel quadro di un funzionamento vitale altrimenti fondamentalmente deterministico. Sussistono solidi argomenti sperimentali che provano il ruolo causale della variabilità, ma la maniera in cui viene concettualizzata impedisce di coglierlo. È un problema teorico che dev’essere risolto. Innanzitutto bisogna differenziare i processi intrinsecamente stocastici dai processi deterministici con rumore. Un fenomeno che segue una legge deterministica dovrebbe dare risultati costanti, ma nella pratica, quando si reitera, ogni iterazione risulta leggermente differente. Questa fluttuazione viene chiamata «rumore di fondo» ed è dovuta a incertezze di misurazione e ad accidenti ambientali inevitabili che perturbano lo svolgimento del fenomeno. Di norma si fa il possibile per ridurre il rumore, ma non si può mai eliminarlo completamente. Tale fluttuazione varia in maniera aleatoria fra un’iterazione e l’altra, ma non per questo il fenomeno studiato si trasforma in fenomeno stocastico. A causa della sua complessità, in biologia il funzionamento stesso degli esseri potrebbe essere una causa supplementare di rumore. Per illustrare meglio in che modo, consideriamo l’esempio di un treno che circola fra due città. Il funzionamento della locomotiva è deterministico e il suo itinerario è rigidamente programmato. Il macchinista del treno segue un programma che definisce preventivamente la velocità del treno per ogni tratto di percorso; tuttavia, nonostante in linea teorica la durata di ciascun viaggio fra le due città sia costante, in realtà essa è variabile. Questo «rumore» può essere molto piccolo, ma non è mai nullo. In questo caso gli errori di misurazione e le perturbazioni ambientali non sono le uniche cause. Una parte dipende infatti dal comportamento del macchinista, che non è completamente riproducibile: per quanto segua un programma rigido, non lo esegue mai in maniera perfettamente identica. Il funzionamento del treno può essere quindi definito come «deterministico con rumore». Anche se lontano dalla biologia, questo esempio illustra il modo in cui si riduce la variabilità nelle teorie biologiche: la vita viene considerata un fenomeno deterministico soggetto al rumore. Secondo il paradigma attuale, gli esseri viventi sono legati a un programma genetico deterministico13 sulla cui realizzazione influisce del rumore, risultante dalle fluttuazioni nei meccanismi molecolari interni e dall’interazione con l’ambiente. Nel corso della propria ontogenesi un essere vivente attraverserebbe diversi stadi, dal concepimento allo stadio adulto, seguendo una sequenza dettata dal programma genetico. Ma le transizioni da uno stadio all’altro sarebbero influenzate dal rumore, come nell’esempio del treno. Secondo questa visione, il rumore viene considerato senz’altro come una forma di variabilità, anche se si tratta solamente di una fluttuazione nel compimento del programma genetico.
In un fenomeno intrinsecamente stocastico la variabilità non è una semplice fluttuazione. Gli eventi che la producono non seguono una legge deterministica o un programma: sono essi stessi stocastici. Quando viene reiterato un fenomeno di questo tipo, ogni iterazione è diversa, ma non si tratta di un rumore accidentale. La variabilità di ogni iterazione è la risultante di eventi stocastici che producono il fenomeno. Un esempio di evento stocastico è il lancio del dado. Non è possibile predirne il risultato ma solamente assegnare una probabilità (in un dado classico, 1/6 di ottenere una data faccia). Il gioco dei dadi non obbedisce a una legge deterministica, ma stocastica: dipende da leggi matematiche probabilistiche. In fisica, un altro esempio è fornito dalla disintegrazione radioattiva. Si tratta del processo attraverso il quale il nucleo di un atomo instabile perde energia emettendo radiazioni. La disintegrazione radioattiva è un fenomeno intrinsecamente stocastico a livello atomico. Ogni atomo si comporta in maniera aleatoria. Così come è impossibile predire il risultato di ciascun lancio di dadi, allo stesso modo è impossibile predire quando un atomo si disintegrerà. È possibile solamente attribuire una probabilità di disintegrazione in un dato lasso di tempo. Per illustrare questo tipo di fenomeno possiamo immaginare un treno che funzioni in maniera intrinsecamente stocastica, ovvero senza una velocità programmata in anticipo. La locomotiva funziona in maniera stocastica, cambiando velocità a caso. Questo treno viaggia tra due città in un tempo evidentemente variabile, ma in questo caso la variabilità non è un rumore nell’esecuzione di un programma. La variabilità è il risultato del funzionamento stocastico della locomotiva. Certo, un treno del genere non sarebbe molto funzionale, ma è tecnicamente realizzabile. Nel motore della locomotiva si potrebbe infatti collocare un dispositivo che cambia la velocità a intervalli di tempo ridotti. Ogni nuova velocità verrebbe scelta a caso grazie a un generatore di numeri casuali14. Questo treno intrinsecamente stocastico sarebbe certamente soggetto a deragliamenti se la velocità scelta a caso fosse troppo elevata, ma tale problema si potrebbe risolvere stabilendo una velocità massima senza per questo modificare il funzionamento stocastico. Questo esempio mostra fino a che punto il ruolo della variazione aleatoria differisca a seconda che si tratti di un fenomeno deterministico con rumore o di un fenomeno intrinsecamente aleatorio: nel primo caso, la variazione aleatoria non partecipa alla produzione del fenomeno, mentre è parte in causa nel secondo assumendo un ruolo causale. In un fenomeno intrinsecamente stocastico la variazione aleatoria è necessaria alla realizzazione del fenomeno15.
In realtà la distinzione fra i due tipi di processo, deterministico con rumore e intrinsecamente stocastico, è più complicata. Il rumore è tradizionalmente considerato una pregiudiziale alla realizzazione dei fenomeni e si ritiene che abbia effetti disorganizzanti che devono essere limitati per non comprometterne il normale svolgimento. Diverse teorie, in particolare le teorie dell’auto-organizzazione, hanno superato questo punto di vista supponendo che il rumore giochi un ruolo positivo, poiché consentirebbe a un sistema di cambiare di stato e di contribuire così alla realizzazione dei fenomeni. Nell’esempio del treno, questo continuerebbe a seguire un programma costituito da una successione di velocità stabili, corrispondenti a ciascun tratto del percorso fra le due città, ma al posto del macchinista sarebbero piccole fluttuazioni della velocità a innescare i più significativi cambiamenti di velocità corrispondenti a ogni singolo tratto: se sottoposto a una fluttuazione di una determinata ampiezza, il treno, al posto di tornare alla sua velocità iniziale, verrebbe preso in una dinamica deterministica che lo farebbe passare a un’altra velocità, agendo come uno stato del treno detto «attrattore». Ogni velocità del treno corrispondente ai vari tratti sarebbe uno stato stabile attrattore e il passaggio del treno da uno stato all’altro sarebbe provocato dal rumore16. Ai nostri giorni, l’idea che il rumore abbia un ruolo positivo ha invaso anche la biologia molecolare e la biologia dei sistemi17. La variabilità dell’espressione genica viene interpretata come un rumore che aiuta la realizzazione del programma genetico. Tutto questo in ogni caso non intacca la distinzione fra deterministico con rumore e intrinsecamente aleatorio. Queste teorie non rigettano in blocco il concetto di programma genetico: non fanno altro che adattarlo.
Il punto importante da cogliere è che quando si tratta di spiegare il funzionamento del vivente la variazione aleatoria non viene riconosciuta come una proprietà primaria ma è ridotta a rumore. Eppure ciò non accade quando si tratta di spiegare l’evoluzione. Nella teoria della selezione naturale di Charles Darwin (1809-1882), la variazione aleatoria è una proprietà primaria necessaria all’espletamento dell’evoluzione. Essa crea in continuazione la diversità degli esseri viventi sui quali opera la selezione naturale. Come ha spiegato Darwin, «la selezione non fa nulla senza la variabilità»18. Anche se al giorno d’oggi la genetica e la selezione naturale sono ritenute complementari, saldate nel quadro di una teoria unificata, esse divergono nel modo di concettualizzare la variazione aleatoria. Darwin ha rotto con l’idea di ordine. Nel suo pensiero, la classificazione degli esseri è precaria e relativa; è rimessa in causa dalla variazione, che finisce sempre per distruggere anche l’ordine meglio instaurato. Al contrario, per la genetica c’è un ordine del vivente codificato nel dna. Questa divergenza fra genetica e darwinismo rende problematica, se non incoerente, la loro unificazione. Ed è questa una delle tesi centrali del libro. Vedremo quindi come l’espressione stocastica dei geni non possa essere ridotta a rumore e come la concezione darwiniana di una variazione aleatoria causale si applichi anche al funzionamento degli esseri viventi.
1.2. Il mutualismo cellulare
Molti esseri viventi vivono in gruppo. Si tratta dell’aspetto più visibile della propensione del vivente alla socialità. Esiste anche una socialità interna. La comparsa della multicellularità è una tappa fondamentale dell’evoluzione. Piante e animali sono costituiti da una miriade di cellule e ciascuna di queste unità, potenzialmente in grado di vivere per conto suo, possiede tutte le proprietà della vita. Ciò che abitualmente percepiamo come essere vivente individuale è una molteplicità di unità individuali più piccole. Un corpo vivente è in altri termini una società di cellule che lavorano per il mantenimento delle funzioni vitali. Come nella maggior parte delle società umane, anche qui si verifica una divisione del lavoro. Le cellule si specializzano in diversi compiti: le cellule neurali, muscolari, sanguigne, ossee e cutanee non fanno le stesse cose. Si differenziano biochimicamente, morfologicamente e funzionalmente, nonostante siano tutte generate a partire da una stessa cellula-uovo che si moltiplica durante l’embriogenesi. Comprendere il funzionamento degli esseri viventi implica una caratterizzazione della natura delle società cellulari: che tipo di relazioni intrattengono le cellule tra di loro e nei confronti dell’intero corpo? Come si differenziano le une dalle altre per formare tessuti specializzati?
Dobbiamo a questo punto riconoscere che la biologia moderna concepisce le società cellulari in maniera autoritaria. Già Schrödinger l’aveva espresso senza ambiguità parlando dei cromosomi come di un «principio dirigente contenuto in ogni cellula», paragonandoli a «uffici centrali» che dirigono le cellule in tutto il corpo:
Sapendo quanto potenti siano questi minuscoli uffici centrali nelle singole cellule, non sembrano queste ultime le sedi di un governo locale disperse in tutto il corpo e in grado di comunicare con grande facilità le une con le altre grazie al codice che è comune a tutte19?
In questa visione autoritaria del vivente, il concetto di induzione svolge un ruolo centrale. Quando cambiano stato o realizzano una qualsiasi funzione, le cellule agirebbero in maniera determinata, in risposta a segnali veicolati da molecole dette induttrici20. In questo processo non ci sarebbe spazio per il caso, a meno che non venga ridotto a rumore. E questa non era solo l’opinione personale di Schrödinger, ma una visione profondamente radicata. Anche André Lwoff (1902-1994) ha espresso in maniera assai netta la visione di questo ordine molecolare autoritario:
In un organismo tutte le molecole devono lavorare in armonia. Ogni molecola deve sapere cosa fanno le altre. Ogni molecola dev’essere in grado di ricevere messaggi e dev’essere sufficientemente disciplinata per obbedire agli ordini […]. In una società molecolare ideale, ogni molecola lavora per la comunità, ossia per l’organismo. È quel che accade normalmente. Succede, però, che una molecola decida di sottrarsi alle catene del coordinamento, di lavorare per sé stessa e di vivere la propria vita. Ne derivano ogni sorta di malattie molecolari. La libertà molecolare è una catastrofe21.
In questa prospettiva, dal momento che si suppone che le molecole induttrici (quelle che inviano gli ordini) siano delle proteine (o altre molecole che dipendono dalle proteine) e poiché la loro azione è programmata nel genoma, quest’ultimo è il potere centrale cui le cellule obbediscono. Visto che la finalità del programma genetico è la costruzione e la gestione dell’organismo che forma una totalità integrata, le cellule sono agenti alienati il cui comportamento è predeterminato. Esse non lavorano e non vivono per sé stesse, ma per l’organismo che devono costruire.
Questa concezione deterministica si scontra con una massa di fatti empirici che la contraddicono. I biologi ne sono ben consapevoli. Sanno che il determinismo genetico dev’essere moderato da altri fattori, quali l’ambiente, i processi metastabili o l’epigenetica. Da alcuni anni questa tendenza ha riscosso un grande successo. Si sente persino parlare di «rivoluzione epigenetica»22. In realtà non c’è nulla di nuovo. Tutto ciò non rimette in causa la genetica dalle sue fondamenta. Semplicemente, si considera che questi fattori la completino, sommandosi all’azione dei geni. Fin dalle sue origini, il determinismo genetico è stato contraddetto da una massa di dati e i genetisti hanno cercato di integrare l’azione dell’ambiente. In passato questa integrazione si chiamava «norma di reazione»23. In effetti, la genetica presenta un problema cronico, mai risolto: il riconoscimento e lo studio empirico del ruolo dei fattori ambientali o epigenetici non spiegano a livello teorico come questo possa conciliarsi in maniera coerente con il suo postulato fondamentale, ovvero che la trasmissione dei caratteri ereditari è dovuta alla trasmissione dei geni.
Il problema del determinismo genetico risiede nel suo ricorso a una causalità deterministica. Per cui aggiungere il determinismo dell’ambiente a quello dei geni non è una soluzione. Non fa altro che raddoppiare il problema! È allora necessaria una teoria che rompa con il determinismo, integrando pienamente la variabilità come motore del vivente, e al contempo spieghi come si articolano le azioni dell’ambiente e dei geni. Altrimenti ci si limita a un discorso doppiamente contraddittorio che consiste nell’affermare, da un lato, che i caratteri biologici sono determinati dai geni, come suppongono le leggi fondamentali della genetica24, e nel ricorrere, dall’altro, a ipotesi ad hoc per compensare le falle di queste stesse leggi fondamentali25. Vedremo che in effetti i genetisti tengono questo doppio discorso fin dagli albori della genetica.
Per uscirne, e così risolvere davvero i problemi che si sono posti alla genetica, bisogna riconoscere che la variazione aleatoria è una proprietà primaria del vivente, anche in biologia funzionale, e non un accidente del suo funzionamento deterministico. Il che procede di pari passo con una nuova concezione della società cellulare, in cui le cellule si comportano come farebbero i membri di una società anarchica autogestita: ogni individuo è libero, ma la sua libertà è limitata dalla presenza di altri individui della comunità che godono della medesima libertà. Questo vincolo sociale sulle vite individuali genera un comportamento collettivo basato sul mutuo interesse di tutti, senza bisogno di uno Stato centralizzato che dia ordini. Allo stesso modo, le cellule individuali degli esseri viventi non hanno alcun bisogno di segnali di induzione o di ordini dettati dal genoma per cambiare di stato. Lo fanno grazie alla loro variazione aleatoria intrinseca. Ma al tempo stesso si trovano continuamente in un ambiente interno differenziato che è il risultato, per ogni data cellula, dell’attività delle altre cellule. Questo ambiente interno agisce come un vincolo che limita la libertà cellulare. Cambiando di stato in maniera aleatoria ogni cellula vi si adatta e ottimizza l’utilizzo delle risorse disponibili. In questo processo ogni cellula agisce per sé stessa, ma l’intreccio dei vincoli (ambienti interni differenziati) che lega tutte le cellule in seno alla società cellulare fa in modo che esse si comportino secondo l’interesse collettivo. Questa teoria, che spiega il principio generale della messa in opera della società cellulare nel corso dell’ontogenesi, consente di effettuare predizioni sperimentali e di sviluppare un nuovo programma di ricerca.
1.3. Cos’è che vive?
Quando effettuano una ricerca, i ricercatori riconoscono spontaneamente le entità fondamentali del proprio ambito di studio e attribuiscono loro proprietà primarie. Esse compongono un quadro concettuale che condiziona le teorie e le pratiche sperimentali che possono essere sviluppate. Non sempre gli scienziati ne sono consapevoli, ma nelle teorie che sviluppano e nei corrispondenti programmi di ricerca è sempre presente un’ontologia, cioè un insieme di entità e di proprietà primarie26. Ebbene, queste ontologie sono relative e nella storia delle scienze è stato necessario cambiarle a più riprese. Attualmente è il caso della biologia. La sua ontologia, che vede nell’organismo la propria entità primaria, non può integrare pienamente la variazione aleatoria. Per farlo bisogna superarla. Il caso e la necessità di Jacques Monod (1910-1976) ci consentirà di affrontare la questione. In quel libro Monod esplicita il senso delle scoperte effettuate dai biologi molecolari. Nelle prime pagine descrive un esperimento mentale che illustra l’ontologia della genetica27. Questo esperimento mira in primo luogo a differenziare gli esseri viventi dalle altre entità che popolano la terra. Monod immagina che dei marziani atterrati sul nostro pianeta abbiano deciso di farlo e che utilizzino dei computer per garantire l’oggettività della loro indagine. Nella sua narrazione, Monod racconta come inizialmente impieghino un programma informatico semplice, concepito per distinguere fra oggetti naturali e artificiali, per passare poi a programmi sempre più sofisticati per individuare gli esseri viventi. Alla fine l’indagine dei marziani è coronata dal successo. Infatti consente di individuare la presenza di esseri viventi, che coincidono con ciò che noi chiamiamo organismi individuali, e di identificarne le proprietà primarie. Innanzitutto, ogni attività vitale è orientata a un obiettivo, una proprietà che Monod chiama «teleonomia». Ma anche le macchine artificiali possiedono questa proprietà. Monod porta l’esempio dell’occhio. Evidentemente è fatto per vedere ed è simile all’obiettivo di una macchina fotografica. Gli organismi però sono unici perché non sono costruiti da un altro essere diverso da loro, come accade per gli oggetti artificiali. Si riproducono in maniera identica per mezzo di un processo di sviluppo autonomo, un’altra proprietà che Monod chiama «riproduzione invariante». Secondo lui, la teleonomia serve a ottimizzare la riproduzione invariante, che è dunque la proprietà primaria e ultima. Tutti gli adattamenti funzionali, come gli occhi concepiti per vedere, le gambe per correre, i capelli per proteggersi dal freddo, i denti per mangiare alimenti solidi e così via, servono, in ultima analisi, a migliorare la riproduzione invariante degli organismi e così facendo a preservare la specie. Anche se parla di riproduzione invariante, Monod, come tutti i biologi, è chiaramente consapevole che esiste variabilità nella riproduzione, ma la considera accidentale, che si tratti di rumore nello sviluppo degli embrioni – dunque trascurabile, e che non menziona – o addirittura di mutazioni genetiche. Nel primo capitolo, in cui definisce le proprietà primarie del vivente, Monod non accenna né alle mutazioni genetiche, né alla variabilità. Parla di mutazioni solo nel sesto capitolo e all’inizio del settimo, dedicato all’evoluzione. Nella sua ottica, una mutazione è un accidente o una perturbazione della riproduzione invariante e quindi non ha diritto allo statuto di proprietà primaria:
Gli eventi iniziali elementari, che schiudono la via dell’evoluzione ai sistemi profondamente conservatori rappresentati dagli esseri viventi, sono microscopici, fortuiti e senza alcun rapporto con gli effetti che possono produrre nelle funzioni teleonomiche. Ma una volta inscritto nella struttura del dna, l’avvenimento singolare, e in quanto tale essenzialmente imprevedibile, verrà automaticamente e fedelmente replicato e tradotto, cioè contemporaneamente moltiplicato e trasposto in milioni o miliardi di esemplari28.
Vedremo che l’ontologia generata dall’esperimento mentale di Monod non è solo sua: è quella presente nella genetica fin dalle origini e implica un quadro concettuale deterministico in cui la variabilità viene ridotta a mero accidente nel funzionamento del vivente, concedendo all’ambiente solo un ruolo secondario. Come afferma Monod nelle pagine del suo stesso libro, un organismo è una «struttura che testimonia un determinismo autonomo, preciso, rigoroso, che implica una ‘libertà’ quasi totale verso agenti o condizioni esterne»29. Grazie a questo determinismo, l’essere vivente è in ordine e questo ordine interno è il fondamento necessario dell’ordine esterno: la riproduzione invariante assicura la conservazione delle specie, cioè la conservazione di gruppi di esseri che condividono un’identica struttura e che si possono quindi classificare senza ambiguità.
Com’è facile constatare, questa ontologia genetica sta agli antipodi dell’ontologia darwiniana. Per Darwin, infatti, a essere primaria è la variazione, non la riproduzione invariante. Ne parla come della «tendenza inerente a variare» degli esseri viventi30. A suo parere, a causa di questa inesorabile variabilità, nessuna struttura invariante può essere trasmessa nel corso della riproduzione. Perciò non può esistere alcun ordine corrispondente a specie oggettive definite da un’identica struttura condivisa. È ciò che l’ha condotto ad adottare una concezione genealogica delle specie, definite come gruppi di esseri che condividono lo stesso antenato, senza alcun riferimento a un’identità condivisa.
L’argomento sostenuto nel corso di questo libro è che, al momento della fusione fra genetica e darwinismo, l’ontologia della variazione di Darwin è stata espunta, nelle sue linee essenziali, dalla teoria sintetica dell’evoluzione31. La biologia funzionale ha adottato l’ontologia dell’ordine della genetica con il suo determinismo e il suo principio di invarianza. Per quanto riguarda la biologia evolutiva, la situazione è meno netta. La maggioranza dei biologi dell’evoluzione ha ripreso superficialmente l’idea della selezione naturale, assimilando la variazione alle mutazioni genetiche, dimenticando l’ontologia darwiniana sottostante e piazzando al suo posto l’ontologia genetica; altri evoluzionisti sono invece rimasti più fedeli all’eredità darwiniana.
In quanto fondamentalmente in contraddizione con le idee di teleonomia e invarianza, la variazione aleatoria non si può integrare in maniera coerente nella biologia funzionale attuale. Per farlo è necessario operare una nuova sintesi, che anziché estendere l’ontologia genetica alla teoria dell’evoluzione, estende l’ontologia darwiniana della variazione alla biologia funzionale. Le conseguenze sono radicalmente diverse. L’organismo perde lo statuto di entità primaria a vantaggio della linea genealogica. L’evoluzione e lo sviluppo embrionale non si manifestano più come processi oggettivi ma come due modalità di attenersi alla linea genealogica. Per illustrare questa nuova ontologia, possiamo riprendere l’esperimento mentale di Monod e modificarlo.
In effetti, anche se l’uso di programmi informatici da parte dei marziani mira a garantirne l’oggettività, l’esperimento mentale di Monod è comunque pregiudizievole. Suppone infatti che questi programmi informatici siano dotati di criteri rigorosi in grado di distinguere gli oggetti. Tali criteri sono, secondo Monod, definiti dai programmatori marziani di sua immaginazione, ma in realtà si tratta dei suoi propri criteri di ricerca, che riproducono la comune percezione umana del mondo. Il ricorso ai supposti marziani dà l’illusione di un distacco rispetto alla nostra soggettività, ma non è difficile rendersi conto che non si tratta di veri extraterrestri, diversi da noi nelle modalità di comprensione del mondo. Si tratta piuttosto di umani travestiti da extraterrestri che vivono nella stessa scala temporale e che discernono gli oggetti nello stesso ordine di grandezza. Ciò li ha portati (ha portato Monod, in realtà) a fondare la propria analisi su un’evidenza di senso comune, ovvero che gli esseri viventi riconosciuti in natura dagli esseri umani, i famosi organismi, sono le entità primarie del vivente. Così gli extraterrestri (cioè sempre Monod) hanno riformulato in modo identico l’ontologia che ha dominato il pensiero biologico fin dall’antichità, aggiornandola a partire dalla genetica. Va però sottolineato che un’esperimento mentale che consiste nel riprodurre la nostra esperienza quotidiana non è davvero utile. L’utilità degli esperimenti mentali risiede proprio nel fatto che consentono di oltrepassare l’esperienza quotidiana e l’evidenza di senso comune. È necessario distaccarsi dalla nostra soggettività, che falsa la percezione che abbiamo del mondo. Vediamo allora dove ci porta modificare l’esperimento mentale di Monod.
È ragionevole pensare che se altrove nell’universo si sono sviluppati esseri intelligenti questi sono molto diversi da noi. Ad esempio, potrebbero vivere decisamente più a lungo o avere una capacità visiva che consente loro di percepire le cose su una scala nettamente più ampia. Immaginiamo perciò una creatura immortale che somigli al «demone di Laplace» per la sua capacità di abbracciare in un sol colpo d’occhio il mondo intero e su tempi molto lunghi. Questa creatura è però diversa dal demone per una caratteristica essenziale: invece di essere un’«intelligenza» o uno «spirito onnisciente» dotato di conoscenza assoluta del mondo, il suo tratto peculiare è piuttosto una facoltà di percezione che si esplica su una scala molto più vasta. Se questa creatura sensoriale riproducesse l’esperimento dei marziani, identificherebbe le stesse entità e le stesse proprietà primarie? C’è da dubitarne. Dal momento che discerne le cose su lunghe durate e su scala mondiale, l’idea di riproduzione le risulterebbe estranea. Per via della sua percezione su vasta scala, non porterebbe subito l’attenzione su un evento come l’arco di vita di un essere umano, che dal suo punto di vista sarebbe al tempo stesso troppo piccolo e troppo breve. Piuttosto, sarebbe in primo luogo colpita dall’esistenza di entità che, pur cambiando di aspetto e di struttura nel corso del tempo, persistono, si dividono e si propagano continuamente su lunghi periodi. Queste entità costituiscono ciò che chiamiamo una linea genealogica. Un tale approccio, diverso dal nostro, avrebbe un’enorme influenza sulla maniera in cui la creatura concepirebbe l’entità primaria del vivente: invece di concepire una linea genealogica come una serie discontinua di organismi individuali che si succedono fra loro per riproduzione, la vedrebbe come un processo continuo di propagazione del vivente e penserebbe che si tratti della sua entità primaria. La percezione del cambiamento delle linee genealogiche nel corso del tempo avrebbe un’altra conseguenza notevole sulla comprensione del vivente da parte della creatura: essa vedrebbe la variazione come la sua proprietà primaria. Immaginerebbe quindi un’ontologia diametralmente opposta a quella genetica, in cui la linea genealogica e la variazione prenderebbero il posto dell’organismo e della riproduzione invariante in qualità di entità e proprietà primarie. In un secondo tempo, focalizzando la propria attenzione su eventi che si verificano su periodi molto più brevi e su una scala di grandezza molto più piccola, potrebbe analizzare il dettaglio della linea genealogica e scoprire un fenomeno periodico che corrisponde a ciò che gli umani chiamano «l’ontogenesi di un organismo». Tuttavia, essa considererebbe ogni occorrenza di questo fenomeno periodico come un segmento ritagliato nella continuità della linea genealogica e non come un fenomeno indipendente esistente per conto suo, con un inizio oggettivo (la fecondazione dell’uovo) e una fine altrettanto oggettiva (la morte dell’adulto) che marcano discontinuità reali fra ogni segmento. Nella percezione della creatura, l’«ontogenesi» non sarebbe indirizzata a un obiettivo, ovvero alla costruzione di un «organismo». Quest’ultimo apparirebbe solo come una fase molto breve nel fenomeno continuativo. Un’«ontogenesi» sarebbe solamente la ripetizione di un fenomeno periodico, come il periodo di un’onda che si propaga o la pulsazione di un cuore che batte. Poi, abbracciando nuovamente tutte le linee genealogiche con un solo sguardo, la creatura osserverebbe che sono tutte derivate da un’unica origine e che formano un’arborescenza, divergendo le une dalle altre a causa delle loro variazioni aleatorie. Ma la creatura constaterebbe anche che questa divergenza fra linee non è omogenea. Visto che alcune linee divergono molto più di altre, essa potrebbe procedere alla classificazione sulla base di questo scarto, raggruppando sotto il termine «specie» quelle che si allontanano di meno, pur rimanendo consapevole della natura arbitraria di questa classificazione, dal momento che è lei stessa a fissare la soglia di divergenza che delimita queste specie. Si accorgerebbe allora che ciò che gli umani chiamano «filogenesi» corrisponde ai cambiamenti che riguardano queste specie nel corso del tempo e che non si tratta quindi, nemmeno in questo caso, di un fenomeno oggettivo, bensì, come nel caso dell’ontogenesi, di una maniera di considerare la propagazione delle linee genealogiche. Nel caso dell’ontogenesi l’osservatore si concentra su ciò che accade in un breve lasso di tempo in una sola linea, mentre nel caso della filogenesi si concentra su quello che accade su tempi lunghi in molte linee. In definitiva, dalla sua analisi la creatura trarrebbe la conseguenza più importante: se ciò che gli umani chiamano «ontogenesi» e «filogenesi» non corrisponde a due fenomeni oggettivi ma a due maniere soggettive di osservare lo stesso fenomeno di propagazione delle linee genealogiche, dal momento che si tratta dello stesso fenomeno in entrambi i casi, allora deve esistere un solo meccanismo per produrlo e dev’essere sufficiente una sola teoria per spiegarlo.
Ad un certo punto ho letto evoluzione, ed ho smesso di leggete… Evoluzione sottintende una “crescita” che non c’è… è solo cambiamento, non c’è crescita dagli stromatoliti all’ uomo, né gerarchia tra blatta e uomo… cambiamenti e diversità assai, ma miglioramento nessuno… ce lo siamo inventati, cone la vira ultaterrena ed il buon dio… memento quia pulvis es et pulvem manebis… altro che ritornerai, lo sei da e per sempre
«Evoluzione» non sottintende alcuna «crescita», alcun «miglioramento»: in ambito biologico è un termine neutro «le specie … sono considerate… in via di continua trasformazione e differenziazione per l’azione di fattori strutturali o casuali, interni o esterni (mutazioni, riproduzione differenziale, selezione naturale)» (cit. dalla definizione Treccani del termine Evoluzione)