La concezione anarchica del vivente

Per Kupiec l’idea che un essere vivente sia solo l’esito di un «programma genetico» non regge più. La vita non è scritta da nessuna parte. È tempo che si affermi un nuovo paradigma scientifico in grado di affrancarsi dal dogma deterministico e di riconoscere la variabilità come proprietà primaria del vivente.


IN COPERTINA e nel testo, Garden-Journey#13, Chang Kyum Kim (2012)

Questo testo è tratto da La concezione anarchica del vivente, di Jean-Jacques Kupiec. Ringraziamo Eleuthera editore per la gentile concessione.


di Jean-Jacques Kupiec

L’idea di ordine, per non dire l’ossessione nei confronti dell’ordine, è di ostacolo alla comprensione del vivente. Poggia infatti sulla convinzione che ogni cosa sia determinata dalle relazioni che intrattiene con gli altri, che abbia un posto assegnato e che il mondo non possa esistere altrimenti. Questa idea imperversa in ogni ambito, ma il suo campo privilegiato è quello della vita. L’essere vivente sarebbe, secondo questa interpretazione, un esempio perfetto di organizzazione e ciascuna delle sue parti esisterebbe esclusivamente per assicurarne il buon funzionamento. D’altronde, viene definito «organismo»: il nome stesso evoca tutta una filosofia. È pur vero che ci sono coloro che sostengono l’«ordine dall’ordine», secondo i quali l’ordine biologico deriva da un ordine molecolare, a sua volta inscritto nei geni da loro chiamati «informazione genetica», e coloro che invece predicano l’«ordine dal rumore», secondo i quali l’ordine biologico deriva da un ordine molecolare perturbato da accidenti, in un processo che chiamano «auto-organizzazione». Tutti però sono concordi nell’affermare l’esistenza di un ordine del quale pretendono di spiegare la genesi.

Tuttavia, una scoperta contraddice l’idea stessa di ordine: il funzionamento del genoma è probabilistico. Basta dare un’occhiata alla storia della biologia per capirne l’importanza. Fin dall’antichità si è ritenuto ovvio che il caso non potesse essere un agente causale della vita. Darwin ha senz’altro iniziato a sfatare questo luogo comune spiegando come gli esseri viventi si trasformino grazie a variazioni aleatorie sottoposte alla selezione naturale. Ma tale teoria riguarda solamente l’evoluzione. L’ontogenesi, invece, continua a essere considerata un fenomeno deterministico. L’idea che il caso possa giocarvi un ruolo chiave non è stata quasi mai presa in considerazione. Così Erwin Schrödinger (1887-1961), quando nel 1944 getta le basi teoriche della biologia molecolare, contrappone l’inerte al vivente e riafferma il dogma deterministico erigendo l’ordine a principio fondamentale del vivente1. Quel che viene chiamato «ordine» nel mondo inerte si produce a partire da ciò che viene definito «disordine». L’ordine fisico macroscopico, cioè quello che si verifica al livello delle nostre percezioni, descritto dalle leggi deterministiche scaturisce dal comportamento probabilistico di atomi e molecole. Per via dell’immenso numero di particelle implicate in qualsiasi sistema fisico, le loro variazioni individuali si annullano rendendo trascurabile la variazione del sistema complessivo2. Schrödinger scarta l’idea che un simile «principio dell’ordine dal disordine» possa trovarsi all’opera nel vivente, sostenendo che l’ordine macroscopico derivi dall’ordine molecolare perché le molecole biologiche non si comporterebbero in modo probabilistico ma al contrario in maniera molto specifica3. Questo «principio dell’ordine dall’ordine» evocato da Schrödinger corrisponde a quella che alcuni anni dopo è stata chiamata «informazione genetica»4. Com’è noto, i biologi non pensano che il vivente funzioni secondo le leggi della fisica statistica, ma che sia invece guidato da un’informazione genetica codificata nel dna, la cui espressione corrisponderebbe a un programma. Inizialmente teorizzato da Schrödinger, questo determinismo genetico è stato sostenuto in maniera ricorrente da tutti i nomi principali della biologia molecolare. Dopo il chiarimento della struttura del dna nel 1953, il concetto di informazione genetica è diventato la chiave universale per spiegare la vita. Per quanto riguarda l’espressione dei geni5, si è pensato che alcune proteine regolatrici agissero come segnali binari, avviando o inibendo la loro attività. Si diceva quindi che un gene era «acceso» o «spento». Di conseguenza, si è creduto anche che in una data cellula una proteina o vi era espressa o non lo era, e che tutte le cellule riceventi i medesimi segnali esprimevano i geni in maniera identica. Questa visione deterministica ha tenuto banco all’incirca fino agli anni Duemila. Prima era tecnicamente impossibile lo studio dell’espressione dei geni in singole cellule. I dati potevano essere ottenuti solo su grandi popolazioni di cellule prese tutte insieme. Perciò era possibile misurare solo la media dell’espressione genica in seno a grandi popolazioni cellulari. Questa situazione si è evoluta quando nuove tecniche hanno consentito lo studio in singole cellule. È allora diventata evidente l’esistenza di una grande variabilità intercellulare di espressione genica. Due cellule non esprimono mai i geni in maniera identica, anche se possono essere dello stesso tipo, possedere lo stesso genoma e vivere nello stesso ambiente, ricevendo quindi gli stessi segnali. Tale variabilità intercellulare è spiegabile unicamente attraverso modelli stocastici (probabilistici, aleatori) nei quali ai geni vengono assegnate probabilità di espressione6.

L’espressione stocastica (aleatoria) dei geni pone un problema: contraddice completamente il principio dell’ordine dall’ordine di Schrödinger. Colloca la probabilità nel cuore stesso della genetica e ne minaccia il fondamento. L’espressione genica è il passaggio fondamentale che dovrebbe consentire ai geni di esercitare il loro potere. Se il loro funzionamento è aleatorio, come spiegare il fatto che eseguano in maniera precisa le istruzioni di un programma codificato nel genoma? La questione è a tal punto essenziale che a buon diritto ci domandiamo se non sia il caso di rimettere in discussione l’attuale paradigma deterministico della biologia. Ed è appunto questo l’argomento del libro. Nel quale si sostiene che fin dalla nascita la genetica ha incontrato una serie di problemi derivanti dal suo determinismo, il cui punto culminante è stato toccato proprio con la scoperta dell’espressione stocastica dei geni. Dal momento che questi problemi toccano le fondamenta stesse della genetica, non è possibile riformarla. È quindi necessaria una teoria anarchica7 che rifiuti l’ordine come principio primo e riconosca invece al suo posto la variazione aleatoria.

1.1. Accettare la variazione aleatoria

Un celebre testo di Pierre-Simon Laplace (1749-1827) ben illustra ciò che abitualmente intendiamo per «determinismo», descrivendo un mondo in cui la concatenazione di cause ed effetti certi escluderebbe la variazione aleatoria:

Dobbiamo quindi considerare lo stato attuale dell’universo come effetto del suo stato anteriore e come causa di quello che seguirà. Un’intelligenza che, in un istante dato, conoscesse tutte le forze che animano la natura e le rispettive situazioni degli esseri che la compongono, se fosse sufficientemente vasta per sottoporre questi dati all’analisi, abbraccerebbe nella medesima formula i movimenti dei corpi più grandi dell’universo e quelli del più leggero fra gli atomi; per essa nulla sarebbe incerto e ai suoi occhi sarebbero presenti l’avvenire così come il passato8.

L’intelligenza qui in questione è nota come il «demone di Laplace», figura a cui spesso si fa riferimento nelle discussioni sul determinismo. Di fatto, già René Descartes (1596-1650) aveva sviluppato a suo tempo la visione meccanicistica e l’aveva proiettata sul vivente. Nonostante nella citazione che segue la problematica di Descartes sia distinta da quella di Laplace, dal momento che non pretende di calcolare tutti gli stati del mondo ma solo di render conto del vivente, ritroviamo però in lui un’idea analoga. A suo avviso, un essere vivente, al pari dell’universo di Laplace, è interamente determinato dalle concatenazioni di cause ed effetti certi. La conoscenza microscopica esaustiva della «semenza» di un essere deve permettere la conoscenza dell’essere intero:

Se conoscessimo bene tutte le parti della semenza di una particolare specie animale, ad esempio dell’uomo, da questo unico elemento potremmo dedurre, mediante ragionamenti completamente matematici e certi, la figura completa e la conformazione di ciascuno dei suoi membri9.

Questa visione deterministica è perdurata e si è imposta nel xx secolo con il determinismo genetico. La causa è diventata così l’informazione genetica contenuta nei cromosomi: un concentrato di ordine (un codice) che irraggia il vivente con una sequenza di cause ed effetti certi di cui è all’origine:

Paragonando la struttura della fibra cromatinica al testo di un codice, si vuol significare che la mente universale, di cui parla Laplace, alla quale ogni connessione causale si manifesta immediatamente, potrebbe dire dalla loro struttura se l’uovo si svilupperà, in opportune condizioni, in un gallo nero o in una gallina maculata, in una mosca o in una pianta di granoturco, un rododendro, uno scarafaggio, un topo o una donna10.

È significativa la somiglianza fra queste citazioni, scritte a secoli di distanza e in contesti scientifici molto diversi, che testimonia la pregnanza del modo di pensare deterministico. Laplace, Descartes e Schrödinger, ognuno a suo modo, escludono la variazione aleatoria11. Eppure essa è onnipresente, ovunque all’opera nel vivente, dalla molecola all’intero essere. Il che disturba gli adepti dell’ordine e sovverte la loro visione di un mondo organizzato come una macchina, in cui l’inatteso non esiste. Proprio per questo hanno elaborato una strategia per renderla inoffensiva: la riducono a essere solo un «rumore», o una «fluttuazione». Effettivamente, a ben guardare lo statuto della variazione aleatoria in biologia è davvero paradossale. Da una parte è chiaro che tutti i parametri biologici sono variabili, a qualsiasi scala, dalla molecola agli esseri completi. Ogni biologo ne è perfettamente consapevole. Ma dall’altra, nonostante l’onnipresenza della variabilità sia del tutto evidente, non si ritiene che essa giochi un ruolo importante nella biologia funzionale12. Non viene percepita come il segnale di un fenomeno intrinsecamente stocastico, ma come un margine di fluttuazione inevitabile nel quadro di un funzionamento vitale altrimenti fondamentalmente deterministico. Sussistono solidi argomenti sperimentali che provano il ruolo causale della variabilità, ma la maniera in cui viene concettualizzata impedisce di coglierlo. È un problema teorico che dev’essere risolto. Innanzitutto bisogna differenziare i processi intrinsecamente stocastici dai processi deterministici con rumore. Un fenomeno che segue una legge deterministica dovrebbe dare risultati costanti, ma nella pratica, quando si reitera, ogni iterazione risulta leggermente differente. Questa fluttuazione viene chiamata «rumore di fondo» ed è dovuta a incertezze di misurazione e ad accidenti ambientali inevitabili che perturbano lo svolgimento del fenomeno. Di norma si fa il possibile per ridurre il rumore, ma non si può mai eliminarlo completamente. Tale fluttuazione varia in maniera aleatoria fra un’iterazione e l’altra, ma non per questo il fenomeno studiato si trasforma in fenomeno stocastico. A causa della sua complessità, in biologia il funzionamento stesso degli esseri potrebbe essere una causa supplementare di rumore. Per illustrare meglio in che modo, consideriamo l’esempio di un treno che circola fra due città. Il funzionamento della locomotiva è deterministico e il suo itinerario è rigidamente programmato. Il macchinista del treno segue un programma che definisce preventivamente la velocità del treno per ogni tratto di percorso; tuttavia, nonostante in linea teorica la durata di ciascun viaggio fra le due città sia costante, in realtà essa è variabile. Questo «rumore» può essere molto piccolo, ma non è mai nullo. In questo caso gli errori di misurazione e le perturbazioni ambientali non sono le uniche cause. Una parte dipende infatti dal comportamento del macchinista, che non è completamente riproducibile: per quanto segua un programma rigido, non lo esegue mai in maniera perfettamente identica. Il funzionamento del treno può essere quindi definito come «deterministico con rumore». Anche se lontano dalla biologia, questo esempio illustra il modo in cui si riduce la variabilità nelle teorie biologiche: la vita viene considerata un fenomeno deterministico soggetto al rumore. Secondo il paradigma attuale, gli esseri viventi sono legati a un programma genetico deterministico13 sulla cui realizzazione influisce del rumore, risultante dalle fluttuazioni nei meccanismi molecolari interni e dall’interazione con l’ambiente. Nel corso della propria ontogenesi un essere vivente attraverserebbe diversi stadi, dal concepimento allo stadio adulto, seguendo una sequenza dettata dal programma genetico. Ma le transizioni da uno stadio all’altro sarebbero influenzate dal rumore, come nell’esempio del treno. Secondo questa visione, il rumore viene considerato senz’altro come una forma di variabilità, anche se si tratta solamente di una fluttuazione nel compimento del programma genetico.

In un fenomeno intrinsecamente stocastico la variabilità non è una semplice fluttuazione. Gli eventi che la producono non seguono una legge deterministica o un programma: sono essi stessi stocastici. Quando viene reiterato un fenomeno di questo tipo, ogni iterazione è diversa, ma non si tratta di un rumore accidentale. La variabilità di ogni iterazione è la risultante di eventi stocastici che producono il fenomeno. Un esempio di evento stocastico è il lancio del dado. Non è possibile predirne il risultato ma solamente assegnare una probabilità (in un dado classico, 1/6 di ottenere una data faccia). Il gioco dei dadi non obbedisce a una legge deterministica, ma stocastica: dipende da leggi matematiche probabilistiche. In fisica, un altro esempio è fornito dalla disintegrazione radioattiva. Si tratta del processo attraverso il quale il nucleo di un atomo instabile perde energia emettendo radiazioni. La disintegrazione radioattiva è un fenomeno intrinsecamente stocastico a livello atomico. Ogni atomo si comporta in maniera aleatoria. Così come è impossibile predire il risultato di ciascun lancio di dadi, allo stesso modo è impossibile predire quando un atomo si disintegrerà. È possibile solamente attribuire una probabilità di disintegrazione in un dato lasso di tempo. Per illustrare questo tipo di fenomeno possiamo immaginare un treno che funzioni in maniera intrinsecamente stocastica, ovvero senza una velocità programmata in anticipo. La locomotiva funziona in maniera stocastica, cambiando velocità a caso. Questo treno viaggia tra due città in un tempo evidentemente variabile, ma in questo caso la variabilità non è un rumore nell’esecuzione di un programma. La variabilità è il risultato del funzionamento stocastico della locomotiva. Certo, un treno del genere non sarebbe molto funzionale, ma è tecnicamente realizzabile. Nel motore della locomotiva si potrebbe infatti collocare un dispositivo che cambia la velocità a intervalli di tempo ridotti. Ogni nuova velocità verrebbe scelta a caso grazie a un generatore di numeri casuali14. Questo treno intrinsecamente stocastico sarebbe certamente soggetto a deragliamenti se la velocità scelta a caso fosse troppo elevata, ma tale problema si potrebbe risolvere stabilendo una velocità massima senza per questo modificare il funzionamento stocastico. Questo esempio mostra fino a che punto il ruolo della variazione aleatoria differisca a seconda che si tratti di un fenomeno deterministico con rumore o di un fenomeno intrinsecamente aleatorio: nel primo caso, la variazione aleatoria non partecipa alla produzione del fenomeno, mentre è parte in causa nel secondo assumendo un ruolo causale. In un fenomeno intrinsecamente stocastico la variazione aleatoria è necessaria alla realizzazione del fenomeno15.

In realtà la distinzione fra i due tipi di processo, deterministico con rumore e intrinsecamente stocastico, è più complicata. Il rumore è tradizionalmente considerato una pregiudiziale alla realizzazione dei fenomeni e si ritiene che abbia effetti disorganizzanti che devono essere limitati per non comprometterne il normale svolgimento. Diverse teorie, in particolare le teorie dell’auto-organizzazione, hanno superato questo punto di vista supponendo che il rumore giochi un ruolo positivo, poiché consentirebbe a un sistema di cambiare di stato e di contribuire così alla realizzazione dei fenomeni. Nell’esempio del treno, questo continuerebbe a seguire un programma costituito da una successione di velocità stabili, corrispondenti a ciascun tratto del percorso fra le due città, ma al posto del macchinista sarebbero piccole fluttuazioni della velocità a innescare i più significativi cambiamenti di velocità corrispondenti a ogni singolo tratto: se sottoposto a una fluttuazione di una determinata ampiezza, il treno, al posto di tornare alla sua velocità iniziale, verrebbe preso in una dinamica deterministica che lo farebbe passare a un’altra velocità, agendo come uno stato del treno detto «attrattore». Ogni velocità del treno corrispondente ai vari tratti sarebbe uno stato stabile attrattore e il passaggio del treno da uno stato all’altro sarebbe provocato dal rumore16. Ai nostri giorni, l’idea che il rumore abbia un ruolo positivo ha invaso anche la biologia molecolare e la biologia dei sistemi17. La variabilità dell’espressione genica viene interpretata come un rumore che aiuta la realizzazione del programma genetico. Tutto questo in ogni caso non intacca la distinzione fra deterministico con rumore e intrinsecamente aleatorio. Queste teorie non rigettano in blocco il concetto di programma genetico: non fanno altro che adattarlo.

Il punto importante da cogliere è che quando si tratta di spiegare il funzionamento del vivente la variazione aleatoria non viene riconosciuta come una proprietà primaria ma è ridotta a rumore. Eppure ciò non accade quando si tratta di spiegare l’evoluzione. Nella teoria della selezione naturale di Charles Darwin (1809-1882), la variazione aleatoria è una proprietà primaria necessaria all’espletamento dell’evoluzione. Essa crea in continuazione la diversità degli esseri viventi sui quali opera la selezione naturale. Come ha spiegato Darwin, «la selezione non fa nulla senza la variabilità»18. Anche se al giorno d’oggi la genetica e la selezione naturale sono ritenute complementari, saldate nel quadro di una teoria unificata, esse divergono nel modo di concettualizzare la variazione aleatoria. Darwin ha rotto con l’idea di ordine. Nel suo pensiero, la classificazione degli esseri è precaria e relativa; è rimessa in causa dalla variazione, che finisce sempre per distruggere anche l’ordine meglio instaurato. Al contrario, per la genetica c’è un ordine del vivente codificato nel dna. Questa divergenza fra genetica e darwinismo rende problematica, se non incoerente, la loro unificazione. Ed è questa una delle tesi centrali del libro. Vedremo quindi come l’espressione stocastica dei geni non possa essere ridotta a rumore e come la concezione darwiniana di una variazione aleatoria causale si applichi anche al funzionamento degli esseri viventi.

1.2. Il mutualismo cellulare

Molti esseri viventi vivono in gruppo. Si tratta dell’aspetto più visibile della propensione del vivente alla socialità. Esiste anche una socialità interna. La comparsa della multicellularità è una tappa fondamentale dell’evoluzione. Piante e animali sono costituiti da una miriade di cellule e ciascuna di queste unità, potenzialmente in grado di vivere per conto suo, possiede tutte le proprietà della vita. Ciò che abitualmente percepiamo come essere vivente individuale è una molteplicità di unità individuali più piccole. Un corpo vivente è in altri termini una società di cellule che lavorano per il mantenimento delle funzioni vitali. Come nella maggior parte delle società umane, anche qui si verifica una divisione del lavoro. Le cellule si specializzano in diversi compiti: le cellule neurali, muscolari, sanguigne, ossee e cutanee non fanno le stesse cose. Si differenziano biochimicamente, morfologicamente e funzionalmente, nonostante siano tutte generate a partire da una stessa cellula-uovo che si moltiplica durante l’embriogenesi. Comprendere il funzionamento degli esseri viventi implica una caratterizzazione della natura delle società cellulari: che tipo di relazioni intrattengono le cellule tra di loro e nei confronti dell’intero corpo? Come si differenziano le une dalle altre per formare tessuti specializzati?

Dobbiamo a questo punto riconoscere che la biologia moderna concepisce le società cellulari in maniera autoritaria. Già Schrödinger l’aveva espresso senza ambiguità parlando dei cromosomi come di un «principio dirigente contenuto in ogni cellula», paragonandoli a «uffici centrali» che dirigono le cellule in tutto il corpo:

Sapendo quanto potenti siano questi minuscoli uffici centrali nelle singole cellule, non sembrano queste ultime le sedi di un governo locale disperse in tutto il corpo e in grado di comunicare con grande facilità le une con le altre grazie al codice che è comune a tutte19?

In questa visione autoritaria del vivente, il concetto di induzione svolge un ruolo centrale. Quando cambiano stato o realizzano una qualsiasi funzione, le cellule agirebbero in maniera determinata, in risposta a segnali veicolati da molecole dette induttrici20. In questo processo non ci sarebbe spazio per il caso, a meno che non venga ridotto a rumore. E questa non era solo l’opinione personale di Schrödinger, ma una visione profondamente radicata. Anche André Lwoff (1902-1994) ha espresso in maniera assai netta la visione di questo ordine molecolare autoritario:

In un organismo tutte le molecole devono lavorare in armonia. Ogni molecola deve sapere cosa fanno le altre. Ogni molecola dev’essere in grado di ricevere messaggi e dev’essere sufficientemente disciplinata per obbedire agli ordini […]. In una società molecolare ideale, ogni molecola lavora per la comunità, ossia per l’organismo. È quel che accade normalmente. Succede, però, che una molecola decida di sottrarsi alle catene del coordinamento, di lavorare per sé stessa e di vivere la propria vita. Ne derivano ogni sorta di malattie molecolari. La libertà molecolare è una catastrofe21.

In questa prospettiva, dal momento che si suppone che le molecole induttrici (quelle che inviano gli ordini) siano delle proteine (o altre molecole che dipendono dalle proteine) e poiché la loro azione è programmata nel genoma, quest’ultimo è il potere centrale cui le cellule obbediscono. Visto che la finalità del programma genetico è la costruzione e la gestione dell’organismo che forma una totalità integrata, le cellule sono agenti alienati il cui comportamento è predeterminato. Esse non lavorano e non vivono per sé stesse, ma per l’organismo che devono costruire.

Questa concezione deterministica si scontra con una massa di fatti empirici che la contraddicono. I biologi ne sono ben consapevoli. Sanno che il determinismo genetico dev’essere moderato da altri fattori, quali l’ambiente, i processi metastabili o l’epigenetica. Da alcuni anni questa tendenza ha riscosso un grande successo. Si sente persino parlare di «rivoluzione epigenetica»22. In realtà non c’è nulla di nuovo. Tutto ciò non rimette in causa la genetica dalle sue fondamenta. Semplicemente, si considera che questi fattori la completino, sommandosi all’azione dei geni. Fin dalle sue origini, il determinismo genetico è stato contraddetto da una massa di dati e i genetisti hanno cercato di integrare l’azione dell’ambiente. In passato questa integrazione si chiamava «norma di reazione»23. In effetti, la genetica presenta un problema cronico, mai risolto: il riconoscimento e lo studio empirico del ruolo dei fattori ambientali o epigenetici non spiegano a livello teorico come questo possa conciliarsi in maniera coerente con il suo postulato fondamentale, ovvero che la trasmissione dei caratteri ereditari è dovuta alla trasmissione dei geni.

Il problema del determinismo genetico risiede nel suo ricorso a una causalità deterministica. Per cui aggiungere il determinismo dell’ambiente a quello dei geni non è una soluzione. Non fa altro che raddoppiare il problema! È allora necessaria una teoria che rompa con il determinismo, integrando pienamente la variabilità come motore del vivente, e al contempo spieghi come si articolano le azioni dell’ambiente e dei geni. Altrimenti ci si limita a un discorso doppiamente contraddittorio che consiste nell’affermare, da un lato, che i caratteri biologici sono determinati dai geni, come suppongono le leggi fondamentali della genetica24, e nel ricorrere, dall’altro, a ipotesi ad hoc per compensare le falle di queste stesse leggi fondamentali25. Vedremo che in effetti i genetisti tengono questo doppio discorso fin dagli albori della genetica.

Per uscirne, e così risolvere davvero i problemi che si sono posti alla genetica, bisogna riconoscere che la variazione aleatoria è una proprietà primaria del vivente, anche in biologia funzionale, e non un accidente del suo funzionamento deterministico. Il che procede di pari passo con una nuova concezione della società cellulare, in cui le cellule si comportano come farebbero i membri di una società anarchica autogestita: ogni individuo è libero, ma la sua libertà è limitata dalla presenza di altri individui della comunità che godono della medesima libertà. Questo vincolo sociale sulle vite individuali genera un comportamento collettivo basato sul mutuo interesse di tutti, senza bisogno di uno Stato centralizzato che dia ordini. Allo stesso modo, le cellule individuali degli esseri viventi non hanno alcun bisogno di segnali di induzione o di ordini dettati dal genoma per cambiare di stato. Lo fanno grazie alla loro variazione aleatoria intrinseca. Ma al tempo stesso si trovano continuamente in un ambiente interno differenziato che è il risultato, per ogni data cellula, dell’attività delle altre cellule. Questo ambiente interno agisce come un vincolo che limita la libertà cellulare. Cambiando di stato in maniera aleatoria ogni cellula vi si adatta e ottimizza l’utilizzo delle risorse disponibili. In questo processo ogni cellula agisce per sé stessa, ma l’intreccio dei vincoli (ambienti interni differenziati) che lega tutte le cellule in seno alla società cellulare fa in modo che esse si comportino secondo l’interesse collettivo. Questa teoria, che spiega il principio generale della messa in opera della società cellulare nel corso dell’ontogenesi, consente di effettuare predizioni sperimentali e di sviluppare un nuovo programma di ricerca.

1.3. Cos’è che vive?

Quando effettuano una ricerca, i ricercatori riconoscono spontaneamente le entità fondamentali del proprio ambito di studio e attribuiscono loro proprietà primarie. Esse compongono un quadro concettuale che condiziona le teorie e le pratiche sperimentali che possono essere sviluppate. Non sempre gli scienziati ne sono consapevoli, ma nelle teorie che sviluppano e nei corrispondenti programmi di ricerca è sempre presente un’ontologia, cioè un insieme di entità e di proprietà primarie26. Ebbene, queste ontologie sono relative e nella storia delle scienze è stato necessario cambiarle a più riprese. Attualmente è il caso della biologia. La sua ontologia, che vede nell’organismo la propria entità primaria, non può integrare pienamente la variazione aleatoria. Per farlo bisogna superarla. Il caso e la necessità di Jacques Monod (1910-1976) ci consentirà di affrontare la questione. In quel libro Monod esplicita il senso delle scoperte effettuate dai biologi molecolari. Nelle prime pagine descrive un esperimento mentale che illustra l’ontologia della genetica27. Questo esperimento mira in primo luogo a differenziare gli esseri viventi dalle altre entità che popolano la terra. Monod immagina che dei marziani atterrati sul nostro pianeta abbiano deciso di farlo e che utilizzino dei computer per garantire l’oggettività della loro indagine. Nella sua narrazione, Monod racconta come inizialmente impieghino un programma informatico semplice, concepito per distinguere fra oggetti naturali e artificiali, per passare poi a programmi sempre più sofisticati per individuare gli esseri viventi. Alla fine l’indagine dei marziani è coronata dal successo. Infatti consente di individuare la presenza di esseri viventi, che coincidono con ciò che noi chiamiamo organismi individuali, e di identificarne le proprietà primarie. Innanzitutto, ogni attività vitale è orientata a un obiettivo, una proprietà che Monod chiama «teleonomia». Ma anche le macchine artificiali possiedono questa proprietà. Monod porta l’esempio dell’occhio. Evidentemente è fatto per vedere ed è simile all’obiettivo di una macchina fotografica. Gli organismi però sono unici perché non sono costruiti da un altro essere diverso da loro, come accade per gli oggetti artificiali. Si riproducono in maniera identica per mezzo di un processo di sviluppo autonomo, un’altra proprietà che Monod chiama «riproduzione invariante». Secondo lui, la teleonomia serve a ottimizzare la riproduzione invariante, che è dunque la proprietà primaria e ultima. Tutti gli adattamenti funzionali, come gli occhi concepiti per vedere, le gambe per correre, i capelli per proteggersi dal freddo, i denti per mangiare alimenti solidi e così via, servono, in ultima analisi, a migliorare la riproduzione invariante degli organismi e così facendo a preservare la specie. Anche se parla di riproduzione invariante, Monod, come tutti i biologi, è chiaramente consapevole che esiste variabilità nella riproduzione, ma la considera accidentale, che si tratti di rumore nello sviluppo degli embrioni – dunque trascurabile, e che non menziona – o addirittura di mutazioni genetiche. Nel primo capitolo, in cui definisce le proprietà primarie del vivente, Monod non accenna né alle mutazioni genetiche, né alla variabilità. Parla di mutazioni solo nel sesto capitolo e all’inizio del settimo, dedicato all’evoluzione. Nella sua ottica, una mutazione è un accidente o una perturbazione della riproduzione invariante e quindi non ha diritto allo statuto di proprietà primaria:

Gli eventi iniziali elementari, che schiudono la via dell’evoluzione ai sistemi profondamente conservatori rappresentati dagli esseri viventi, sono microscopici, fortuiti e senza alcun rapporto con gli effetti che possono produrre nelle funzioni teleonomiche. Ma una volta inscritto nella struttura del dna, l’avvenimento singolare, e in quanto tale essenzialmente imprevedibile, verrà automaticamente e fedelmente replicato e tradotto, cioè contemporaneamente moltiplicato e trasposto in milioni o miliardi di esemplari28.

Vedremo che l’ontologia generata dall’esperimento mentale di Monod non è solo sua: è quella presente nella genetica fin dalle origini e implica un quadro concettuale deterministico in cui la variabilità viene ridotta a mero accidente nel funzionamento del vivente, concedendo all’ambiente solo un ruolo secondario. Come afferma Monod nelle pagine del suo stesso libro, un organismo è una «struttura che testimonia un determinismo autonomo, preciso, rigoroso, che implica una ‘libertà’ quasi totale verso agenti o condizioni esterne»29. Grazie a questo determinismo, l’essere vivente è in ordine e questo ordine interno è il fondamento necessario dell’ordine esterno: la riproduzione invariante assicura la conservazione delle specie, cioè la conservazione di gruppi di esseri che condividono un’identica struttura e che si possono quindi classificare senza ambiguità.

Com’è facile constatare, questa ontologia genetica sta agli antipodi dell’ontologia darwiniana. Per Darwin, infatti, a essere primaria è la variazione, non la riproduzione invariante. Ne parla come della «tendenza inerente a variare» degli esseri viventi30. A suo parere, a causa di questa inesorabile variabilità, nessuna struttura invariante può essere trasmessa nel corso della riproduzione. Perciò non può esistere alcun ordine corrispondente a specie oggettive definite da un’identica struttura condivisa. È ciò che l’ha condotto ad adottare una concezione genealogica delle specie, definite come gruppi di esseri che condividono lo stesso antenato, senza alcun riferimento a un’identità condivisa.

L’argomento sostenuto nel corso di questo libro è che, al momento della fusione fra genetica e darwinismo, l’ontologia della variazione di Darwin è stata espunta, nelle sue linee essenziali, dalla teoria sintetica dell’evoluzione31. La biologia funzionale ha adottato l’ontologia dell’ordine della genetica con il suo determinismo e il suo principio di invarianza. Per quanto riguarda la biologia evolutiva, la situazione è meno netta. La maggioranza dei biologi dell’evoluzione ha ripreso superficialmente l’idea della selezione naturale, assimilando la variazione alle mutazioni genetiche, dimenticando l’ontologia darwiniana sottostante e piazzando al suo posto l’ontologia genetica; altri evoluzionisti sono invece rimasti più fedeli all’eredità darwiniana.

In quanto fondamentalmente in contraddizione con le idee di teleonomia e invarianza, la variazione aleatoria non si può integrare in maniera coerente nella biologia funzionale attuale. Per farlo è necessario operare una nuova sintesi, che anziché estendere l’ontologia genetica alla teoria dell’evoluzione, estende l’ontologia darwiniana della variazione alla biologia funzionale. Le conseguenze sono radicalmente diverse. L’organismo perde lo statuto di entità primaria a vantaggio della linea genealogica. L’evoluzione e lo sviluppo embrionale non si manifestano più come processi oggettivi ma come due modalità di attenersi alla linea genealogica. Per illustrare questa nuova ontologia, possiamo riprendere l’esperimento mentale di Monod e modificarlo.

In effetti, anche se l’uso di programmi informatici da parte dei marziani mira a garantirne l’oggettività, l’esperimento mentale di Monod è comunque pregiudizievole. Suppone infatti che questi programmi informatici siano dotati di criteri rigorosi in grado di distinguere gli oggetti. Tali criteri sono, secondo Monod, definiti dai programmatori marziani di sua immaginazione, ma in realtà si tratta dei suoi propri criteri di ricerca, che riproducono la comune percezione umana del mondo. Il ricorso ai supposti marziani dà l’illusione di un distacco rispetto alla nostra soggettività, ma non è difficile rendersi conto che non si tratta di veri extraterrestri, diversi da noi nelle modalità di comprensione del mondo. Si tratta piuttosto di umani travestiti da extraterrestri che vivono nella stessa scala temporale e che discernono gli oggetti nello stesso ordine di grandezza. Ciò li ha portati (ha portato Monod, in realtà) a fondare la propria analisi su un’evidenza di senso comune, ovvero che gli esseri viventi riconosciuti in natura dagli esseri umani, i famosi organismi, sono le entità primarie del vivente. Così gli extraterrestri (cioè sempre Monod) hanno riformulato in modo identico l’ontologia che ha dominato il pensiero biologico fin dall’antichità, aggiornandola a partire dalla genetica. Va però sottolineato che un’esperimento mentale che consiste nel riprodurre la nostra esperienza quotidiana non è davvero utile. L’utilità degli esperimenti mentali risiede proprio nel fatto che consentono di oltrepassare l’esperienza quotidiana e l’evidenza di senso comune. È necessario distaccarsi dalla nostra soggettività, che falsa la percezione che abbiamo del mondo. Vediamo allora dove ci porta modificare l’esperimento mentale di Monod.

È ragionevole pensare che se altrove nell’universo si sono sviluppati esseri intelligenti questi sono molto diversi da noi. Ad esempio, potrebbero vivere decisamente più a lungo o avere una capacità visiva che consente loro di percepire le cose su una scala nettamente più ampia. Immaginiamo perciò una creatura immortale che somigli al «demone di Laplace» per la sua capacità di abbracciare in un sol colpo d’occhio il mondo intero e su tempi molto lunghi. Questa creatura è però diversa dal demone per una caratteristica essenziale: invece di essere un’«intelligenza» o uno «spirito onnisciente» dotato di conoscenza assoluta del mondo, il suo tratto peculiare è piuttosto una facoltà di percezione che si esplica su una scala molto più vasta. Se questa creatura sensoriale riproducesse l’esperimento dei marziani, identificherebbe le stesse entità e le stesse proprietà primarie? C’è da dubitarne. Dal momento che discerne le cose su lunghe durate e su scala mondiale, l’idea di riproduzione le risulterebbe estranea. Per via della sua percezione su vasta scala, non porterebbe subito l’attenzione su un evento come l’arco di vita di un essere umano, che dal suo punto di vista sarebbe al tempo stesso troppo piccolo e troppo breve. Piuttosto, sarebbe in primo luogo colpita dall’esistenza di entità che, pur cambiando di aspetto e di struttura nel corso del tempo, persistono, si dividono e si propagano continuamente su lunghi periodi. Queste entità costituiscono ciò che chiamiamo una linea genealogica. Un tale approccio, diverso dal nostro, avrebbe un’enorme influenza sulla maniera in cui la creatura concepirebbe l’entità primaria del vivente: invece di concepire una linea genealogica come una serie discontinua di organismi individuali che si succedono fra loro per riproduzione, la vedrebbe come un processo continuo di propagazione del vivente e penserebbe che si tratti della sua entità primaria. La percezione del cambiamento delle linee genealogiche nel corso del tempo avrebbe un’altra conseguenza notevole sulla comprensione del vivente da parte della creatura: essa vedrebbe la variazione come la sua proprietà primaria. Immaginerebbe quindi un’ontologia diametralmente opposta a quella genetica, in cui la linea genealogica e la variazione prenderebbero il posto dell’organismo e della riproduzione invariante in qualità di entità e proprietà primarie. In un secondo tempo, focalizzando la propria attenzione su eventi che si verificano su periodi molto più brevi e su una scala di grandezza molto più piccola, potrebbe analizzare il dettaglio della linea genealogica e scoprire un fenomeno periodico che corrisponde a ciò che gli umani chiamano «l’ontogenesi di un organismo». Tuttavia, essa considererebbe ogni occorrenza di questo fenomeno periodico come un segmento ritagliato nella continuità della linea genealogica e non come un fenomeno indipendente esistente per conto suo, con un inizio oggettivo (la fecondazione dell’uovo) e una fine altrettanto oggettiva (la morte dell’adulto) che marcano discontinuità reali fra ogni segmento. Nella percezione della creatura, l’«ontogenesi» non sarebbe indirizzata a un obiettivo, ovvero alla costruzione di un «organismo». Quest’ultimo apparirebbe solo come una fase molto breve nel fenomeno continuativo. Un’«ontogenesi» sarebbe solamente la ripetizione di un fenomeno periodico, come il periodo di un’onda che si propaga o la pulsazione di un cuore che batte. Poi, abbracciando nuovamente tutte le linee genealogiche con un solo sguardo, la creatura osserverebbe che sono tutte derivate da un’unica origine e che formano un’arborescenza, divergendo le une dalle altre a causa delle loro variazioni aleatorie. Ma la creatura constaterebbe anche che questa divergenza fra linee non è omogenea. Visto che alcune linee divergono molto più di altre, essa potrebbe procedere alla classificazione sulla base di questo scarto, raggruppando sotto il termine «specie» quelle che si allontanano di meno, pur rimanendo consapevole della natura arbitraria di questa classificazione, dal momento che è lei stessa a fissare la soglia di divergenza che delimita queste specie. Si accorgerebbe allora che ciò che gli umani chiamano «filogenesi» corrisponde ai cambiamenti che riguardano queste specie nel corso del tempo e che non si tratta quindi, nemmeno in questo caso, di un fenomeno oggettivo, bensì, come nel caso dell’ontogenesi, di una maniera di considerare la propagazione delle linee genealogiche. Nel caso dell’ontogenesi l’osservatore si concentra su ciò che accade in un breve lasso di tempo in una sola linea, mentre nel caso della filogenesi si concentra su quello che accade su tempi lunghi in molte linee. In definitiva, dalla sua analisi la creatura trarrebbe la conseguenza più importante: se ciò che gli umani chiamano «ontogenesi» e «filogenesi» non corrisponde a due fenomeni oggettivi ma a due maniere soggettive di osservare lo stesso fenomeno di propagazione delle linee genealogiche, dal momento che si tratta dello stesso fenomeno in entrambi i casi, allora deve esistere un solo meccanismo per produrlo e dev’essere sufficiente una sola teoria per spiegarlo.


Note
1. Schrödinger è noto soprattutto per i suoi lavori di fisica quantistica; tuttavia, al pari di altri fisici che hanno giocato un ruolo importante nella disciplina, è stato coinvolto nelle fasi iniziali della biologia molecolare. Il suo Che cos’è la vita? ha esercitato una grande influenza. In questo testo Schrödinger teorizza la nascente scienza, sintetizzando le posizioni assunte dai pionieri: Erwin Schrödinger, Qu’est-ce que la vie? (1944), Seuil, coll. «Points Sciences», Paris, 1993 [trad. it. Che cos’è la vita? La cellula dal punto di vista fisico, Adelphi, Milano, 2008].
2. Questo fenomeno dell’ordine dal disordine è dovuto alla legge dei grandi numeri. Si veda <https://fr.wikipedia.org/wiki/Loi_des_grands_nombres> [<http://www.treccani.it/enciclopedia/grandi-numeri-legge-dei_%28Enciclopedia-della-Matematica%29/>].
3. Schrödinger, Qu’est-ce que la vie?, cit., p. 188.
4. Schrödinger non parlava di informazione genetica ma di codice contenuto nei cromosomi. L’idea si diffondeva già tra i biologi molecolari prima ancora che il dna venisse identificato come supporto dell’ereditarietà e che ne venisse chiarita la struttura a doppia elica.
5. L’espressione genica è il processo attraverso il quale vengono sintetizzate le proteine corrispondenti ai geni. Si dice allora che i geni vengono espressi: si tratta di un passaggio indispensabile affinché possano esercitare i loro effetti.
6. Stocastico, probabilistico e aleatorio sono sinonimi. Nel corso del libro lo preciseremo e ri-spiegheremo spesso per facilitare la lettura. Un processo stocastico, probabilistico o aleatorio è un processo che dipende dalla realizzazione di eventi che hanno solo una certa probabilità di realizzarsi, e in questo senso è l’opposto di un fenomeno deterministico, nell’ambito del quale il risultato è certo. Il termine «stocastico», poco utilizzato nel linguaggio corrente, si è invece largamente imposto nella letteratura scientifica.
7. Etimologicamente, «anarchia» deriva da anarchos, assenza di capo, composto di an, che significa «senza», o «assenza di», e archos, che significa «guida» o «capo» nel senso gerarchico di colui che viene per primo. Il termine rinvia ad arché, che significa «principio» o «origine», e «potere» o «autorità». Vedremo come il ruolo assegnato all’informazione genetica nella biologia moderna è proprio quello di una arché in entrambi i sensi, cioè di un principio di ordine gerarchicamente precedente: anteriore all’essere vivente, ne dirige la genesi e il funzionamento.
8. Pierre-Simon Laplace, Essai philosophique sur les probabilités, Courcier, Paris, 1814, p. 2 [trad. it Saggio filosofico sulle probabilità, Theoria, Roma, 1987].
9. René Descartes, L’Homme (1664), gf-Flammarion, Paris, 2018, p. 279 [trad. it. L’uomo, a cura di G. Cantelli, Boringhieri, Torino, 1960].
10. Schrödinger, Qu’est-ce que la vie?, cit., p. 71. Sarebbe un errore credere che si tratti di un’opinione desueta. Malgrado i dibattiti di cui è oggetto il determinismo genetico, essa rimane ben salda fra i biologi. Ancora di recente, Sydney Brenner (1927-2019) dichiarava su «Nature»: «I migliori esempi di macchine di Turing o di von Neumann si trovano senza dubbio in biologia. Non esiste altro luogo in cui vi siano sistemi tanto complicati nei quali ogni organismo contiene una descrizione interna di sé stesso. Il concetto di gene come rappresentazione simbolica dell’organismo, come codice scritto, è la caratteristica fondamentale del mondo vivente e deve costituire il cuore stesso di una teoria della biologia». Sydney Brenner, Life’s code script, «Nature», 2012, 482, p. 461.
11. Cosa che potrebbe sorprendere visto che Schrödinger è uno degli artefici della fisica quantistica.
12. La biologia funzionale cerca di capire la genesi e il funzionamento degli esseri viventi. La biologia evoluzionista si interessa alla loro storia e alla loro relazione con l’ambiente.
13. Ovvero una sequenza stabilita di cambiamenti dell’espressione genica, essa stessa codificata nel genoma, che provoca la differenziazione delle cellule durante lo sviluppo embrionale, ossia il loro adattamento all’ambiente. Oggi si sente spesso parlare di reti di geni piuttosto che di programma genetico. Al di là del cambiamento semantico, vedremo che la differenza è minima.
14. Per sapere cos’è un generatore di numeri casuali: <https://fr.wikipedia.org/wiki/Générateur_de_nombres_aléatoires> [<https://it.wikipedia.org/wiki/Numeri_pseudo-casuali> e <https://it.wikipedia.org/wiki/Generatore_hardware_di_numeri_casuali>].
15. A questo punto si rende probabilmente necessaria una precisazione al fine di evitare malintesi. Un processo stocastico non è indeterminato nel senso di una rinuncia alla razionalità o addirittura alla causalità. Esso è sottoposto a quella che possiamo chiamare «causalità stocastica». È regolato da probabilità che non cadono dal cielo, ma che sono vincolate agli elementi materiali che partecipano al processo stocastico. Facciamo un esempio semplice. Nel gioco dei dadi, la probabilità di ottenere una delle sei cifre è 1/6. Questa probabilità deriva dalla struttura cubica del dado. Tale struttura vincola il fenomeno del lancio dei dadi in modo tale che la probabilità di cadere su ciascuna faccia è 1/6. Allo stesso modo, nel gioco «testa o croce» la probabilità di ottenere testa o croce è 1/2, vincolata dalla struttura piatta a due facce della moneta. Lo stesso accade per fenomeni più complessi come la disintegrazione radioattiva, la cui probabilità dipende dalla struttura degli atomi e dalle leggi fisiche che li governano. Nell’esempio del treno stocastico le diverse velocità possibili dipenderebbero dal dispositivo fisico messo in campo.
16. Un sistema di questo tipo è detto multistabile. È stato Alan Turing (1912-1954) a introdurre il primo modello di multistabilità: Alan Turing, The chemical basis of morphogenesis, «Philosophical Transactions of the Royal Society of London», 1952, B327, pp. 37-72. Il suo principio è stato poi variamente declinato dai sostenitori dell’auto-organizzazione. Tra gli altri: Henri Atlan, Entre le cristal et la fumée, Seuil, Paris, 1979 [trad. it. Tra il cristallo e il fumo: saggio sull’organizzazione del vivente, Hopeful Monster, Firenze, 1986]; Ilya Prigogine, Isabelle Stengers, La Nouvelle Alliance, Gallimard, Paris, 1979 [trad. it. La nuova alleanza: metamorfosi della scienza, Einaudi, Torino, 2013]; Stuart Alan Kauffman, At Home in the Universe, Oxford University Press, New York, 1995 [trad. it. A casa nell’universo: le leggi del caos e della complessità, Editori Riuniti, Roma, 2001].
17. Dopo il sequenziamento del genoma umano, concluso nel 2000, molti biologi si sono convertiti alla cosiddetta biologia post-genomica, e in primo luogo alla biologia dei sistemi. Definirla è piuttosto difficile perché non si tratta di un ambito omogeneo basato su un corpus teorico o su una metodologia precisa. Appurato che la conoscenza del «grande libro della vita» non approdava né alla comprensione del vivente né a un sapere che consentisse di sviluppare tutte le terapie sperate, si è ritenuto di doversi avvicinare all’essere vivente come a un sistema del quale il genoma sarebbe solamente uno degli elementi. Nella pratica, la biologia dei sistemi fa largo uso della modellizzazione e delle tecniche di raccolta dati su vasta scala. Si veda ad esempio: Uri Alon, An Introduction to Systems Biology: Design Principles of Biological Circuits, Chapman and Hall/crc, London, 2006; Denis Noble, Claude Bernard, the first systems biologist, and the future of physiology, «Experimental Physiology», 2008, 93, pp. 16-26.
18. Charles Darwin, The Variation of Animals and Plants under Domestication (1868), Johns Hopkins University Press, Baltimore (md), 1998, p. 7 [trad. it. Variazione degli animali e delle piante allo stato domestico, Einaudi, Torino, 2011].
19. Schrödinger, Qu’est-ce que la vie?, cit., pp. 186-187.
20. Questo concetto biologico non ha quindi niente a che vedere con il concetto filosofico di induzione, che indica una generalizzazione effettuata a partire da casi particolari.
21. André Lwoff, L’Ordre biologique, Robert Laffont, Paris, 1969, pp. 18-20 [trad. it. L’ordine biologico, Boringhieri, Torino, 1964].
22. Nessa Carey, The Epigenetics Revolution, Columbia University Press, New York, 2013.
23. Richard Woltereck, Variation und Artbildung. Analytische und experimentelle Untersuchungen an pelagischen Daphniden und anderen Cladoceran, i Teil, Morphologische, entwicklungsgeschichtliche und physiologiesche variations-analyze (Variation and species formation. Analytical and experimental investigations of pelagic Daphnids and other Cladocerans, Part 1, Analysis of morphological and physiological variation, from an evolutionary point of view), A. Francke, Berlin, 1919.
24. Chiamate anche leggi di Mendel, sono il fondamento della genetica. Si trovano in tutti i manuali di genetica. Descrivono matematicamente il modo in cui la trasmissione intergenerazionale dei caratteri biologici dovrebbe esplicarsi per via della trasmissione dei geni soggiacenti. Queste leggi di Mendel saranno spiegate nel capitolo secondo.
25. Un’ipotesi ad hoc è un’ipotesi aggiunta a una teoria per evitare che la teoria venga contraddetta quando non è in grado di spiegare determinati fatti empirici.
26. In questo libro i due termini «ontologia» e «ontogenesi» saranno ampiamente utilizzati. I loro significati sono assai diversi, anche se potrebbero dar adito a qualche confusione per via della loro somiglianza. La differenza fra i due è forse banale per alcuni lettori, ma probabilmente non lo è per altri. Non è quindi inutile ridefinirli brevemente, per facilitare la lettura. Nel suo significato più generale l’ontologia è lo studio dell’essere; ma ha anche un senso più concreto che riguarda le scienze. Nella pratica scientifica riconosciamo delle entità dette primarie – non composte a loro volta da altre entità più fondamentali – alle quali attribuiamo proprietà definite anch’esse primarie poiché non deducibili da altre proprietà. Ad esempio, nel quadro dell’ontologia atomista, tutte le cose che vediamo, come un tavolo, una montagna, un animale e così via, non sono entità primarie ma entità derivate da entità primarie dette atomi. Sono dei «mucchi di atomi» le cui proprietà derivano dalle proprietà degli atomi. Quanto all’ontogenesi, essa è lo sviluppo dell’individuo dall’uovo fecondato fino allo stadio adulto. Ricopre cioè quello stadio definito «sviluppo embrionale».
27. Jacques Monod, Le Hasard et la Nécessité, Seuil, coll. «Points Sciences», Paris, 1970, pp. 15-34. [trad. it. Il caso e la necessità, Mondadori, Milano, 1997].
28. Ibid., p. 156. Si vedano anche le pp. 146-147, in cui Monod spiega che «neanche il meccanismo di riproduzione potrebbe sfuggire a qualsivoglia perturbazione o accidente senza violare le leggi della fisica».
29. Ibid., p. 27.
30. Darwin, The Variation of Animals and Plants under Domestication, cit., p. 2. A proposito dello statuto della variazione in Darwin, si veda: Jérôme Rosanvallon, Pure variation and organic stratification, «Progress in Biophysics and Molecular Biology», 2012, 110, pp. 137-149; Thomas Heams, Variation, in Thomas Heams et al. (a cura di), Les Mondes darwiniens, Éditions Matériologiques, vol. i, Paris, 2011, pp. 23-39.
31. Si chiama «teoria sintetica dell’evoluzione» la teoria risultante dalla fusione, nel xx secolo, del darwinismo con altre discipline biologiche, principalmente la genetica. Costituisce il quadro generale della biologia contemporanea.

Jean-Jacques Kupiec è ricercatore in biologia ed epistemologia al centro Cavaillès dell’Ecole Normale Supérieure di Parigi. Specialista di biologia molecolare e di filosofia della biologia, ha lavorato in particolare sull’embriogenesi e sulla differenziazione cellulare.

Ti è piaciuto questo articolo? Da oggi puoi aiutare L’Indiscreto a crescere e continuare a pubblicare approfondimenti, saggi e articoli di qualità: invia una donazione, anche simbolica, alla nostra redazione. Clicca qua  sotto

2 comments on “La concezione anarchica del vivente

  1. Bradipo

    Ad un certo punto ho letto evoluzione, ed ho smesso di leggete… Evoluzione sottintende una “crescita” che non c’è… è solo cambiamento, non c’è crescita dagli stromatoliti all’ uomo, né gerarchia tra blatta e uomo… cambiamenti e diversità assai, ma miglioramento nessuno… ce lo siamo inventati, cone la vira ultaterrena ed il buon dio… memento quia pulvis es et pulvem manebis… altro che ritornerai, lo sei da e per sempre

    • «Evoluzione» non sottintende alcuna «crescita», alcun «miglioramento»: in ambito biologico è un termine neutro «le specie … sono considerate… in via di continua trasformazione e differenziazione per l’azione di fattori strutturali o casuali, interni o esterni (mutazioni, riproduzione differenziale, selezione naturale)» (cit. dalla definizione Treccani del termine Evoluzione)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *