La Genomica funzionale: la crisi della concezione del DNA come programma genetico

1. Le caratteristiche fondamentali del bios

Nel 1970 Jacques Lucien Monod (Parigi 9 febbraio 1910 — Cannes 31 maggio 1976), biologo di fama mondiale nonché Premio Nobel per la medicina e la fisiologia nel 1965, pubblica il volume: Il caso e la necessità, un’opera che avrebbe cambiato radicalmente il volto della biologia contemporanea e avrebbe, per alcuni aspetti, iniziato il cammino stesso della filosofia della biologia. Il grande biologo francese mettendo in stretta relazione la scienza degli automi di J. von Neumann, la teoria delle macchine di A. M. Turing, la Cibernetica di N. Wiener, la teoria dell’informazione così come elaborata da Shannon e N. Wiener, la teoria innatistica di Chomsky e la teoria evoluzionistica di Darwin, offre alla biologia contemporanea la possibilità di costruire un nuovo paradigma e di individuare un codice per esso. Ponendo in stretto contatto Cibernetica e biologia, Monod mette in luce le analogie esistenti tra gli automi ed i sistemi naturali auto-regolati elaborando così un modello meccanicistico del funzionamento degli organismi viventi. L’intreccio di questi ambiti di ricerca pone le basi per la configurazione della Cibernetica come scienza dell’auto-regolazione, temine quest’ultimo con cui si designano, in particolare nella sfera dei processi biologici, i caratteri comuni ai fenomeni di auto-organizzazione connessi, sul piano oggettivo, alla rivelazione dell’origine del significato relativa alla realtà autonoma dei sistemi stessi. La teoria molecolare del codice, pur non potendo risolvere tutta la biosfera, costituisce tuttavia una «teoria generale dei sistemi viventi»che Monod definisce «oggetti strani» poiché, ad una prima impressione, essi sembrano non rispettare le leggi fisiche che regolano i sistemi macroscopici: il bios, in altre parole, sembra violare alcuni principi su cui si basa la scienza contemporanea.

La prima questione affrontata dal nostro autore nel suo volume consiste proprio nel tentativo di stabilire il criterio di demarcazione tra oggetti naturali, artefatti e organismi viventi. Anche se può sembrare intuitivamente chiara, a un’analisi approfondita, la definizione del limite compare in tutta la sua complessità: basandosi esclusivamente su criteri macroscopici (strutturali) è impossibile, secondo Monod, giungere ad una definizione dell’artificiale che non tenga conto di oggetti naturali come per esempio gli organismi viventi o cristalli. Quali sono le caratteristiche specifiche degli organismi viventi? Secondo quali criteri oggettivi è possibile distinguere ciò che è vivente da ciò che non lo è?

Qualunque artefatto è il prodotto di un’attività di un essere vivente che esprime in tal modo, e con particolare evidenza una delle proprietà fondamentali caratteristiche di tutti gli esseri viventi, nessuno escluso: quella di essere oggetti dotati di un progetto, rappresentato nelle loro strutture e al tempo stesso realizzato mediante le loro prestazioni, ad esempio la creazione di artefatti.^[1]

Grazie a questa proprietà, ovvero a questa condizione necessaria per definire i viventi a cui Monod si riferisce con il termine di teleonomia, gli oggetti dotati di un progetto si differenziano dalle strutture di qualsiasi altro sistema dell’universo. Ciò nonostante, la teleonomia non è sufficiente a spiegare la differenza tra tali esseri e gli oggetti artificiali, cioè i prodotti delle loro attività.

Monod allora pone a confronto le strutture e le prestazioni dell’occhio di un vertebrato con quelle di un apparecchio fotografico e conclude dicendo che se assumiamo come unico principio di individuazione degli esseri viventi la sola teleonomia non potremmo che riconoscere tra i due elementi in questione una profonda analogia. Se ci si limita allo studio della struttura di un oggetto e delle sue prestazioni, «possiamo individuare il progetto ma non l’autore».1 Per cogliere l’autore risulta necessario analizzare non solo «l’oggetto in sé», ma anche la sua origine e la sua modalità di costruzione. A questo punto è possibile introdurre la seconda proprietà essenziale che caratterizza un essere vivente: la morfogenesi autonoma.

La struttura di un essere vivente è il risultato di un processo del tutto diverso (rispetto a quello di un artefatto), nella misura in cui non deve praticamente nulla all’azione delle forze esterne, mentre deve tutto, dalla forma generale fino al minimo particolare, a interazioni morfogenetiche interne all’oggetto medesimo.2

La morfogenesi autonoma è una sorta di determinismo interno degli esseri viventi che assicura la formazione e la crescita dell’organismo favorendo una «libertà quasi totale» rispetto alle condizioni esterne. Grazie a questo meccanismo è possibile, secondo Monod, un parallelismo concreto tra macchine e organismi viventi al punto di definire questi ultimi «macchine che si costruiscono da sé». Il carattere spontaneo dei processi morfogenetici degli esseri viventi permette loro di distinguersi dagli oggetti artificiali e dagli oggetti naturali aventi una morfologia macroscopica dipendente da fattori esterni. Ciò nonostante vi è un’eccezione: i cristalli. Tali oggetti naturali sono il frutto di un libero gioco di forze fisiche alle quali non possiamo attribuire alcun progetto (se si considera valido il principio cardine su cui si basa la scienza moderna secondo il quale la natura è oggettiva e non proiettiva) e presentano forme geometriche perfettamente definite poiché la loro struttura macroscopica riflette direttamente la struttura microscopica semplice e ripetitiva.

In base al criterio della morfogenesi autonoma i cristalli verrebbero classificati tra gli esseri viventi, mentre gli oggetti artificiali e quelli naturali verrebbero ad essere racchiusi in un’altra classe poiché dipendenti da fattori esterni. Monod nelle prime pagine del suo libro cerca di definire, per mezzo di criteri generali, le proprietà macroscopiche specifiche che differenziano gli esseri viventi da qualsiasi altro sistema dell’universo, pertanto egli si immedesima in un programmatore che ignora la biologia occupandosi esclusivamente di informatica e di informazione. Le strutture complesse degli esseri viventi, infatti, presentano una cospicua quantità d’informazione la cui fonte resta sconosciuta:

Ammettiamo che, proseguendo nella sua indagine, quel programmatore faccia la sua ultima scoperta, cioè si accorga che l’emittente dell’informazione, che risulta espressa nella struttura di un essere vivente, è sempre un altro oggetto identico al primo. […] A questo punto egli ha identificato la fonte e riconosciuto una terza proprietà notevole di questi oggetti: il potere di riprodurre e di trasmettere — ne varietur — l’informazione corrispondente alla loro struttura. Informazione molto ricca, poiché descrive un’organizzazione straordinariamente complessa che però si conserva integralmente da una generazione all’altra. Designeremo questa proprietà con il nome di riproduzione invariante o, semplicemente, di invarianza.^[4]

La terza caratteristica essenziale degli esseri viventi è dunque l’invarianza riproduttiva, grazie ad essa gli organismi viventi e le strutture cristalline si trovano ancora una volta associati. Nonostante questa stretta somiglianza si deve considerare il fatto che l’informazione che si trasmette nelle diverse generazioni in tutti gli esseri viventi è superiore di parecchi ordini di grandezza rispetto a quella contenuta nelle strutture cristalline; quest’ultimo criterio quantitativo permette di discernere gli organismi viventi anche dai cristalli. Dopo aver individuato nella teleonomia, nella morfogenesi autonoma e nell’invarianza riproduttiva le tre caratteristiche che distinguono i viventi dalla natura inorganica, Monod analizza le proprietà in questione alla luce delle nuove scoperte della biologia contemporanea. L’indagine si sposta verso «le forze interne che conferiscono agli esseri viventi la loro struttura microscopica».3 La prima proprietà che viene ad essere presa in considerazione è, precisamente, l’invarianza riproduttiva a cui abbiamo or ora accennato:

Poiché si tratta della capacità di riprodurre una struttura con un grado d’ordine molto elevato, e poiché il grado d’ordine di una struttura si può definire in unità d’informazione, diremo che il contenuto d’invarianza di una data specie è uguale alla quantità d’informazione che, trasmessa da una generazione all’altra, assicura la conservazione della norma strutturale specifica.4

Il contenuto di invarianza di una specie coincide con la quantità d’informazione che, trasmessa continuamente di generazione in generazione, garantisce la conservazione della «norma strutturale specifica». Questo concetto ci conduce verso quello di teleonomia: tornando all’esempio dell’occhio e della macchina fotografica si deve riconoscere che qualsiasi progetto particolare trova il suo senso autentico nel momento in cui diviene parte di un progetto generale:

Tutti gli adattamenti funzionali degli esseri viventi, al pari di tutti gli artefatti di loro produzione, realizzano progetti particolari che si possono considerare come aspetti o frammenti di un unico progetto primitivo, cioè la conservazione e la moltiplicazione della specie.5

Monod ci tiene a precisare che il progetto primitivo consiste nella «trasmissione del contenuto d’invarianza caratteristico della specie». Pertanto, il grande biologo francese giunge a definire teleonomiche quelle attività e quelle prestazioni che competono alla realizzazione del progetto primitivo; stando così le cose, ogni struttura teleonomica equivale ad una quantità d’informazione che sarà trasmessa affinché quella specifica struttura si realizzi. Monod definisce questa quantità informazione teleonomica e afferma che:

[…] Il livello teleonomico di una data specie corrisponde alla quantità d’informazione che deve essere trasferita, in media, per individuo onde assicurare la trasmissione del contenuto specifico di invarianza riproduttiva alla generazione successiva.6

Ovviamente l’attuazione della riproduzione invariante determina in specie diverse varie strutture e prestazioni più o meno complesse. Queste attività possono contribuire anche in modo indiretto alla moltiplicazione delle specie; per esempio nei mammiferi il gioco risulta essere un fattore determinante per l’inserimento sociale. Il grado di complessità delle strutture e delle prestazioni teleonomiche permette di classificare le diverse specie secondo una «scala teleonomica». Al di là di queste differenze approssimative, Monod precisa che il contenuto di invarianza genetica a partire dagli organismi semplici fino a quelli maggiormente complessi è molto simile e che le tre proprietà fondamentali dei viventi sono intrinsecamente legate. Teleonomia, morfogenesi autonoma e invarianza riproduttiva sono tre manifestazioni distinte di un’«essenza» che, ad un’indagine diretta, permane nascosta ed indecifrabile. Monod, dunque, si pone come obiettivo l’individuazione del «segreto della vita» attraverso l’analisi della connessione delle tre proprietà fondamentali suddette:

L’invarianza genetica si esprime e si rivela unicamente attraverso e grazie alla morfogenesi autonoma della struttura che costituisce l’apparato teleonomico. Ma qui si impone una prima osservazione: lo statuto di questi tre concetti non è lo stesso. Se l’invarianza e la teleonomia sono effettivamente proprietà caratteristiche dei viventi, la strutturazione spontanea deve essere considerata piuttosto come un meccanismo.7

Questo meccanismo sarà fondamentale nell’economia della decifrazione del codice, esso infatti interviene sia nella replicazione dell’informazione invariante, sia nella costruzione delle strutture teleonomiche. Queste due proprietà, pur essendo giustificate dal meccanismo della strutturazione spontanea, vanno necessariamente distinte poiché è possibile ammettere l’esistenza di oggetti aventi riproduzione invariante anche se privi di un apparato teleonomico; un esempio ci è dato dai cristalli che, tuttavia, sono ad un livello di complessità estremamente basso rispetto agli esseri viventi. Molto importanti risultano le considerazioni chimiche alla base della distinzione, non esclusivamente logica, tra teleonomia ed invarianza:

Di fatto, delle due classi di macromolecole biologiche essenziali l’una, quella delle proteine, è responsabile di quasi tutte le strutture e prestazioni teleonomiche, mentre l’invarianza genetica si riferisce esclusivamente all’altra classe, quella degli acidi nucleici.8

Gli organismi viventi secondo Monod sono «oggetti strani», essi infatti sembrano violare alcuni principi fondamentali su cui si basa la scienza contemporanea. Quale è infatti lo statuto dell’invarianza riproduttiva e della teleonomia nei confronti delle leggi fisiche?

L’invarianza sembra una proprietà paradossale poiché il mantenimento e la riproduzione di strutture altamente ordinate sembra incompatibile con il principio della termodinamica secondo cui «in un sistema energeticamente isolato, tutte le differenze di temperatura tendono ad annullarsi spontaneamente».9 Ciò significa che, in un sistema come l’universo in cui viviamo (se tale universo, naturalmente, viene ad essere considerato come chiuso), l’energia tende a degradarsi, quindi ogni fenomeno viene associato ad un aumento di entropia (aumento di disordine) all’interno del sistema-contesto in cui viene a presentarsi. Al contrario un aumento d’ordine verrà a corrispondere ad una diminuzione di entropia: ecco nascere il concetto di neg-entropia. Il grado d’ordine di un sistema si può definire anche mediante il linguaggio dell’informazione, ma torniamo all’invarianza. L’enunciato del secondo principio della termodinamica è valido solo se si considera «l’evoluzione d’insieme di un sistema energeticamente isolato;»10 all’interno di quest’ambito, in una delle sue fasi, secondo Monod sarà possibile assistere all’accrescimento di strutture ordinate senza trasgredire al principio. Ciò è dimostrato dal grande scienziato attraverso un semplice esperimento: si prenda un cm³ d’acqua in cui siano disciolti alcuni milligrammi di glucosio e di sali minerali, si semini un batterio Escherichia coli, nel giro di 36 ore la soluzione conterrà diversi miliardi di batteri e si costaterà che circa il 40% dello zucchero è stato convertito in costituenti cellulari mentre il restante 60% è stato ossidato in acqua e anidride carbonica e infine risulterà evidente come l’entropia dell’insieme del sistema (batteri e terreno colturale), misurata da un calcolatore, sia aumentata poco più del minimo prescritto dal secondo principio della termodinamica. Stando così le cose il nostro autore è ora in grado di affermare che, in seno ad un sistema isolato energeticamente, l’aumento locale d’ordine risulta compatibile con il secondo principio della termodinamica. La moltiplicazione delle cellule quindi, non viola le leggi della termodinamica, al contrario si limita ad obbedirvi: ogni singola cellula lo utilizza per realizzare il proprio progetto primitivo, cioè la divisione cellulare.

Un altro paradosso è costituito dall’apparente contraddizione epistemologica tra la proprietà teleonomica degli esseri viventi ed il principio di oggettività che costituisce la pietra miliare del metodo scientifico, infatti disfarsi di questo principio significherebbe uscire dalla scienza stessa. Il problema centrale della biologia, secondo Monod, consiste proprio in questa contraddizione, infatti è proprio il principio di oggettività che ci obbliga a riconoscere il carattere teleonomico degli esseri viventi, ad ammettere cioè che nelle loro strutture e prestazioni essi realizzano e perseguono un progetto.

L’unica soluzione possibile per la scienza contemporanea consiste nel postulare una precedenza necessaria dell’invarianza sulla teleonomia: si tratta dell’idea darwiniana secondo cui la comparsa, l’evoluzione ed il progressivo affinamento di strutture sempre più fortemente teleonomiche dipendono dal sopraggiungere di perturbazioni in una struttura già dotata di invarianza e quindi capace di conservare il caso e di subordinare gli effetti al gioco della selezione naturale. Stando così le cose, secondo Monod, la teoria sintetica dell’evoluzione (della quale parleremo più avanti) è l’unica compatibile con il postulato di oggettività in quanto riduce la teleonomia ad una proprietà secondaria derivata dall’invarianza (proprietà primaria). Alla luce di tutto ciò, dunque, appare evidente come per il grande biologo francese il principio teleonomico non possa essere il motore dell’evoluzione: tutte le proprietà degli esseri viventi, infatti, si basano su un meccanismo fondamentale di conservazione molecolare.

L’evoluzione nella biosfera è dunque un processo necessariamente irreversibile che definisce una direzione nel tempo, direzione che è identica a quella imposta dalla legge dell’aumento dell’entropia, cioè dal secondo principio della termodinamica. È molto più di un confronto. Il secondo principio si basa su considerazioni statistiche pari a quelle che stabiliscono l’irreversibilità dell’evoluzione. Infatti è legittimo considerare quest’ultima come una sua espressione nella biosfera.11

Il caso e la necessità costituisce un «saggio sulla filosofia naturale della biologia contemporanea», non è un testo di biologia vero e proprio, al contrario, sulla base delle scoperte biologiche già realizzate, giunge a delineare un punto di sintesi tra le proprietà essenziali degli organismi viventi (dimensione macroscopica) e la biologia molecolare (dimensione microscopica) «cogliendo così la quintessenza della teoria molecolare del codice».12 Secondo Monod, il concetto di teleonomia sottintende l’idea di «un’attività orientata, coerente e costruttiva»: in questo senso egli giunge direttamente a considerare le proteine come gli «agenti molecolari essenziali delle prestazioni teleonomiche di tutti gli esseri viventi».13

Le proteine sono macromolecole a base di carbonio, idrogeno, ossigeno, azoto e una scarsa quantità di zolfo. Ogni cellula è fatta per la maggior parte di proteine e si mantiene in vita grazie a queste macromolecole e all’attività chimica che esse promuovono. Le proteine sono polimeri di monomeri detti amminoacidi tenuti insieme da legami peptidici. Gli esseri viventi sono definiti da Monod «macchine chimiche»: unità funzionali coerenti ed integrate che sono in grado di costruirsi da sé. La coerenza funzionale di queste macchine chimiche autonome esige l’intervento di un sistema cibernetico che regoli in più punti la loro attività: «gli agenti essenziali sono proteine regolatrici la cui funzione consiste nel rivelare segnali chimici».14 Le proteine sono responsabili delle interazioni costruttive di ordine microscopico e molecolare.

Di conseguenza sono proteine quelle che incanalano l’attività della macchina chimica, ne assicurano il funzionamento coerente e la costruiscono. Tutte queste prestazioni teleonomiche delle proteine si basano sulle loro proprietà stereospecifiche, cioè sulla loro capacità di riconoscere altre molecole (comprese le altre proteine) dalla loro forma, determinata dalla struttura molecolare. […] Si può ammettere che ogni prestazione o struttura teleonomica di un essere vivente sia analizzabile in linea di principio in termini di interazioni stereospecifiche di una, o di moltissime proteine.15

Ma dove risiede la fonte ultima del progetto rappresentato, perseguito e realizzato dalle proteine?

2. Il codice genetico

La sequenza dei radicali amminoacidi in un filamento polipeptidico rappresenta, secondo Monod, un messaggio tanto significativo quanto misterioso, infatti, pur essendo casuale, tale sequenza è riprodotta milioni di volte senza errori in tutte le molecole della proteina considerata, in ogni organismo e in ogni cellula. Per molti aspetti, il codice genetico può essere considerato proprio come quel meccanismo che garantisce l’invarianza delle strutture e che si manifesta nelle interazioni funzionali e teleonomiche della struttura globulare propria delle proteine. In accordo a questo punto di vista una proteina globulare è dunque «una traduzione tridimensionale della sequenza lineare».

Il caso è captato, conservato e riprodotto dal meccanismo dell’invarianza e trasformato in ordine, regola, necessità. Da un gioco completamente cieco, tutto per definizione può derivare, ivi compresa la vista. Nell’ontogenesi di una proteina funzionale si riflettono l’origine e la filiazione dell’intera biosfera; la fonte ultima del progetto, rappresentato, perseguito e realizzato dagli esseri viventi, si rivela in questo messaggio, in questo testo preciso, fedele, ma essenzialmente indecifrabile costituito dalla struttura primaria. Indecifrabile poiché […] esso rivela nella sua struttura solo la casualità della sua origine. Ma questo è, giustamente, il senso più profondo, per noi, del messaggio che ci giunge dall’abisso dei tempi.16

Questo messaggio inquietante che ci giunge da un passato quasi «assoluto» e che rivela con la sua presenza il mistero dell’origine è, come abbiamo or ora accennato, il codice genetico. I costituenti universali (da una parte i nucleotidi e dall’altra gli amminoacidi) giungono a costituire dei veri e propri alfabeti determinando così la stessa nascita di quel particolare linguaggio attraverso cui vengono espresse la struttura e le funzioni delle proteine. Tutta la diversità della biosfera è scritta in questo linguaggio. «L’invariante biologico fondamentale è il DNA», infatti ogni generazione cellulare assicura l’invarianza della specie grazie alla replicazione della sequenza di nucleotidi, cioè del testo scritto nell’acido desossiribonucleico. Il codice spiega come sia possibile il passaggio dall’alfabeto di quattro lettere del DNA (appaiamento delle basi nucleiche secondo la seguente combinazione necessaria: adenina-timina, guanina-citosina e viceversa) ai venti amminoacidi che formano le proteine. Come è possibile che quattro lettere indichino venti amminoacidi? Monod in questo testo non entra nello specifico delle nozioni biologiche limitandosi ad individuare solo alcuni passaggi fondamentali: la traduzione e la replicazione del DNA.

Per traduzione Monod intende quel processo che consente alla cellula di passare dalla lettura dell’informazione alla costruzione della proteina. Il codice genetico consente di indicare ciascun amminoacido con una sequenza di tre basi (i geni sono sequenze delle quattro basi azotate: adenina, guanina, citosina e timina), così, combinando queste ultime a tre a tre in tutti i modi possibili, si possono ottenere sessantaquattro combinazioni, cioè quanto basta per indicare venti amminoacidi. Ogni tripletta non produce un amminoacido ma lo indica tra i venti. Dato il soprannumero di combinazioni possibili, ogni amminoacido può essere codificato da più di una tripletta, inoltre ci sono alcune triplette che servono come segnali di fine o come segnali di inizio per la lettura. La traduzione avviene con il concorso del tRNA (RNA di trasporto), molecola che ha il compito di agganciare i singoli amminoacidi e di trasportarli sui ribosomi. Un’estremità della molecola di tRNA ha un punto di attacco per un amminoacido specifico; inoltre la molecola ha anche un punto di attacco per una specifica tripletta di mRNA, precisamente quella che codifica per quell’amminoacido. La traduzione comincia a partire dalla tripletta d’inizio (dopo che l’mRNA si è legato al ribosoma che provvede a collegare tra di loro gli amminoacidi per formare la sequenza proteica) e termina nel momento in cui viene raggiunta una tripletta di stop. A questo punto l’mRNA e la catena di amminoacidi si separano dal ribosoma e la catena polipeptidica si ripiega assumendo la conformazione della proteina. Da tutto ciò Monod trae alcune conclusioni:

Questo codice, presente ovunque nella biosfera, appare arbitrario dal punto di vista chimico, nel senso che il trasferimento d’informazione potrebbe benissimo avvenire secondo un’altra convenzione. […] Si conoscono d’altronde mutazioni che, alterando la struttura di certi componenti del meccanismo di traduzione, modificano di conseguenza l’interpretazione di alcune triplette e commettono dunque […] errori gravemente pregiudizievoli per l’organismo.17

A questo punto ci sembra opportuno considerare il secondo passaggio fondamentale: la replicazione del DNA. Per replicazione del DNA si intende quel meccanismo molecolare che porta alla formazione di due molecole di DNA identiche a quella originaria. Se i due filamenti che costituiscono il DNA originario si separano l’uno dall’altro, dato che la base (A) si accoppia solo con (T) e la base (C) si accoppia solo con (G), ognuno di essi contiene le informazioni per ricostruire il filamento mancante. I due filamenti che formano la doppia elica vengono aperti come una cerniera rompendo i legami idrogeno che congiungono le basi contrapposte. Ognuno dei filamenti funziona così da stampo per la costruzione di un nuovo filamento complementare. Nella duplicazione del DNA la probabilità di errori nella copiatura è piuttosto alta, inoltre il DNA può essere danneggiato da fattori ambientali (radiazioni e alcune sostanze chimiche). Questi errori vengono riparati da appositi enzimi, tuttavia ci sono alcuni casi in cui un errore di copiatura non viene corretto, così la sequenza delle basi del DNA cambia e si hanno delle mutazioni che costituiscono la fonte della variabilità genetica. Queste ultime sono cambiamenti casuali nel DNA i quali introducono nuovi geni (tratti di DNA che portano l’informazione per la sintesi delle proteine) che, come abbiamo già accennato, grazie alla riproduzione, si diffondono nella popolazione rappresentando così una delle principali fonti della variabilità e della formazione di nuove specie:

Queste alterazioni sono accidentali, avvengono a caso. […] Ne consegue necessariamente che soltanto il caso è all’origine di ogni novità, di ogni creazione nella biosfera. Il caso puro, il solo caso, libertà assoluta ma cieca, alla radice stessa del prodigioso edificio dell’evoluzione: oggi questa nozione centrale della biologia non è più un’ipotesi fra le molte possibili o perlomeno concepibili, ma è la sola concepibile in quanto è l’unica compatibile con la realtà quale ce la mostrano l’osservazione e l’esperienza.18

Secondo questa teoria, dunque, l’evoluzione ha origine nell’«imprevedibile essenziale» così a differenza dello sviluppo epigenetico che viene definito da Monod «rivelazione», essa costituisce una «creazione assoluta». La selezione naturale, pertanto, agisce su mutazioni casuali di una struttura già dotata d’invarianza, cioè in grado di inscrivere l’accidentale nel mondo della necessità. La vita, quindi, è il risultato del gioco accoppiato di invarianza e di metamorfosi, di caso e di necessità: ecco un ordine che emerge dal caos e che risulta essere legato a forme di cognizione la cui natura è scritta nel codice genetico.

La biologia moderna riconosce […] che tutte le proprietà degli esseri viventi si basano su un meccanismo fondamentale di conservazione molecolare. Per la teoria del giorno d’oggi l’evoluzione non è affatto una proprietà degli esseri viventi, in quanto ha le sue radici nelle imperfezioni stesse del meccanismo conservatore che, invece, rappresenta il loro unico privilegio. Si deve dire quindi che la stessa fonte di perturbazione, di rumore che, in un sistema non vivente, cioè non replicativo, abolirebbe a poco a poco ogni struttura, è all’origine dell’evoluzione nella biosfera e giustifica la sua totale libertà creatrice […].19

Monod fornisce un grande contributo al chiarimento dei meccanismi dell’evoluzione delle specie: grazie a lui, infatti, e alle ricerche dei teorici neo-darwiniani, la teoria dell’evoluzione di Darwin che costituisce, ancora oggi, il principio organizzatore della biologia contemporanea, è venuta a confluire, una volta integrata dalle conoscenze della genetica molecolare, nella più ampia teoria sintetica dell’evoluzione.

Alla luce di tali considerazioni appare, quindi, necessario sottolineare come la vita, agli occhi di Monod, si configuri come un fenomeno evolutivo, ovvero come una sorta di accomodamento continuo in cui l’informazione invariante di ogni organismo si confronta costantemente con la selezione della natura: il bios, pertanto, si esplica attraverso la sintesi continua di invarianza e di metamorfosi, attraverso cioè la sintesi circolare del DNA e del suo ambiente.

Anche se l’evoluzione sembra al grande biologo francese l’unica concezione compatibile con la realtà dei meccanismi molecolari (replicazione, mutazione e traduzione), tuttavia egli non si esime dal riconoscere il profondo mistero che la ricerca scientifica mette in luce quando affronta la complessità della vita. Monod, pertanto, riconosce il fatto strabiliante secondo cui più si progredisce verso la spiegazione del «miracolo» della vita, tanto più quest’ultimo sembra «miracoloso».20 La complessità dei viventi in continua evoluzione ci mette di fronte all’interrogativo da sempre irrisolto dell’enigma delle origini, infatti l’evoluzione manifesta al suo estremo un’inquietante frontiera dell’ignoto: l’origine del codice.

[…] Il problema più grave consiste nell’origine del codice genetico e del suo meccanismo di traduzione. Più propriamente, invece che di problema, si dovrebbe parlare di enigma […]. Il codice non ha senso se non è tradotto. Il meccanismo traduttore della cellula moderna comporta almeno cinquanta costituenti macro-molecolari, anch’essi codificati nel DNA. Il codice genetico può dunque essere tradotto solo dai prodotti stessi della traduzione. È questa l’espressione moderna dell’omne vivum ex ovo. Ma quando e come questo anello si è chiuso su se stesso?21

È proprio qui che Monod trasforma lo studio scientifico della vita in un’interrogazione, infatti a questa domanda (tutt’ora) non c’è una risposta che non sia semplicemente un’ipotesi. Il grande biologo scrive che la comparsa della specie umana è stato un avvenimento unico:

come forse lo è stata anche la comparsa della vita stessa, ciò dipende dal fatto che, prima di manifestarsi, le sue possibilità erano quasi nulle. L’universo non stava per partorire la vita, né la biosfera l’uomo, il nostro numero è uscito alla roulette: perché dunque non dovremmo avvertire l’eccezionalità della nostra condizione, proprio allo stesso modo di colui che ha appena vinto un miliardo?22

Anche volendo ridurre a pura casualità tutto quello che accade, Monod non si può astenere, per la natura eccezionale che ha il fenomeno dell’auto-coscienza, dal porsi comunque una domanda . È proprio in questa dimensione antinomica del limite (e forse solo qui) che la scienza può entrare in contatto con l’originario o «pre-categoriale», ovvero con la traccia di una «diacronia irrappresentabile», non-luogo privo di inizio che sfugge continuamente ad ogni tentativo di oggettivazione e di rappresentazione: si sta proponendo qui l’ipotesi suggestiva di far «dialogare» il mistero della complessità della vita con una significazione originaria. Comunque sia, questo tema affascinante non potrà essere approfondito in questa sede dove ci limiteremo a mettere in risalto il fatto che, nonostante il raggiungimento di sorprendenti risultati e l’apertura di nuovi orizzonti di ricerca prima impensabili, la scienza contemporanea si trova di fronte all’impossibilità concreta di poter rispondere in maniera definitiva alla domanda riguardante l’»essenza» della vita: complessità che resta mistero.

3. Limiti del «Progetto Genoma»

Tornando alla scoperta del codice genetico, possiamo, oggi, a ragione dire che essa costituisce un vero e proprio spartiacque della biologia contemporanea poiché dà inizio ad una fase chiave per la ricerca scientifica del secolo trascorso. Ciò al punto di permettere di individuare il secolo stesso come: Il secolo del gene.

In questo spirito proseguiremo la nostra analisi facendo innanzitutto riferimento alla voce autorevole di Evelyn Fox Keller (New York 1936) filosofa e scienziata che, laureatasi in fisica alla Harvard University nel 1963, ha compiuto ricerche e pubblicato saggi di fisica teorica, biologia molecolare e bio-matematica, dedicandosi contemporaneamente all’insegnamento in diverse università come il Massachussetts Institute of Technology dove attualmente insegna storia e filosofia della scienza nel programma «Scienza, tecnologia e società«.

All’inizio degli anni ottanta la genetica, in interazione con la biochimica, la biologia molecolare e gli altri rami della biologia, fu in condizione di realizzare lo studio delle sequenze dei genomi e, dato che si conosceva il codice genetico universale, di decifrare tutti i geni contenuti in ogni genoma studiato. Il genoma è l’intero patrimonio genetico di un organismo vivente ed il suo sequenziamento consiste nell’identificazione della successione esatta delle basi nucleotidiche, cioè le quattro «lettere chimiche» che compongono il DNA. I geni rappresentano «frasi di senso compiuto» localizzate e riconosciute da sofisticati software all’interno della sequenza di basi or ora accennata. A metà degli anni ottanta furono disponibili tutti gli ingredienti per far partire i diversi progetti genoma e, così, già verso il 1985 venne decifrato completamente il genoma di diversi virus batterici, di alcuni virus animali e del DNA mitocondriale umano. Nel 1990 negli Stati Uniti nacque lo Human Genome Project (HGP) sotto la guida di James Watson.

Negli anni successivi Cina, Giappone, Regno Unito, Francia e Germania si unirono al progetto formando così un consorzio pubblico internazionale. La missione del progetto era quella di sequenziare il genoma umano e altri organismi che interessavano ai biologi con il fine di svelare la mappa genetica che dice chi siamo. All’interno della comunità scientifica, tuttavia, tale progetto incontrò un alto numero di dissensi tra cui anche quello autorevole di Evelyn Fox Keller la quale ne condannò la prospettiva determinista e riduzionista. Ma tutto ciò fu inutile, le ricerche proseguirono ed i primi risultati positivi non si fecero attendere . Nel 1996 venne sequenziato il lievito di birra, nel febbraio 2000 il moscerino della frutta (Drosophila melanogaster), nel 2001 toccò prima al batterio Escherichia coli insieme ad altri venticinque micro-organismi e, successivamente, all’Homo sapiens del cui genoma si ebbe soltanto un brogliaccio divenuto sequenziamento completo entro la fine del 2003. È nell’ambito di questa temperie scientifica ed intellettuale che giunge ad inserirsi l’attività teorica e di ricerca della Fox Keller la quale, nel 2000, pubblica Il secolo del gene un testo che costituisce una vera e propria rivoluzione nell’ambito delle scienze biologiche del XX° secolo. La grande studiosa introduce così il suo volume:

Con questo libro voglio celebrare gli effetti imprevisti che il successo del Progetto ha avuto sul pensiero biologico. Invece di rafforzare il concetto familiare di determinismo genetico che tanto ha colpito l’immaginazione del grande pubblico, lo ha rimesso in discussione. Oggi la preminenza dei geni nei mass media e nella stampa scientifica fa pensare che la neonata scienza della genomica sia l’apoteosi della genetica novecentesca: invece sta minando il concetto di gene sul quale essa aveva basato il proprio successo. Mentre il progetto genoma raggiunge la meta, alcuni biologi cominciano a pensare che esso segni in realtà l’inizio di una nuova era.23

Più di dieci anni fa i biologi erano convinti che le sequenze avrebbero fornito tutta l’informazione necessaria per comprendere la funzione biologica. Walter Gilbert nel suo A vision of the Grail spiegava che una sequenza di tremiliardi di basi poteva essere contenuta in un unico compact-disc così da poter ridurre un essere umano ad una semplice sequenza sintattica di informazioni.24 Le attività avviate per conoscere gli aspetti di base del nostro genoma corrispondono a quella che è stata chiamata genomica strutturale e che consentì alla comunità scientifica di mappare il nostro genoma e di conoscere nel dettaglio le sequenze da un’estremità all’altra di ogni cromosoma. Il Progetto partiva da un argomento semplice e riduzionista: si trattava di applicare un insieme di tecniche straordinariamente efficaci per sezionare il genoma in migliaia di piccoli frammenti che si dovevano sequenziare e ordinare come un enorme puzzle con l’aiuto delle risorse offerte dalle due grandi rivoluzioni tecnologiche della fine del XX° secolo, ovvero la biologia molecolare e l’informatica. Ma i risultati ottenuti dalla realizzazione del Progetto hanno suscitato molti più interrogativi di quelli a cui si pensava di poter dare risposta. Le ricerche sul nostro genoma indicano che il numero dei geni appare sulla base di recenti calcoli di circa 39000 e questo non sembra giustificare affatto la nostra posizione privilegiata nella scala evolutiva. Questo tema è stato definito da alcuni biologi «paradosso del numero dei geni», ovvero l’apparente mancanza di relazione tra il numero dei geni di una determinata specie e quello che si suppone dovrebbe possedere in relazione alla sua apparente complessità biologica. A livello di genoma va detto che l’uomo condivide più del 98, 5% delle sue sequenze con lo scimpanzé, con molti vegetali ha in comune il 25% dei suoi geni e la percentuale aumenta ancora di più se prendiamo in considerazione ad esempio il moscerino della frutta. Ma allora perché gli umani sono diversi dagli altri primati? Dove risiede tale differenza? Fox Keller ci dice che per fare previsioni sulle funzioni precise delle innumerevoli regioni codificanti non basta analizzare la sequenza meramente sintattica del DNA poiché la stabilità strutturale dei geni costituisce «non il punto di partenza ma il prodotto finale di un processo dinamico altamente orchestrato che richiede la partecipazione di un gran numero di enzimi organizzati in reti metaboliche complesse, le quali regolano e assicurano sia la stabilità della molecola di DNA che la sua replicazione fedele».25 Più avanti la grande studiosa aggiunge:

Sembra che la risposta si trovi nella struttura delle reti geniche, nei modi in cui i geni sono collegati ad altri da meccanismi regolatori complessi che, nelle loro interazioni, determinano quando e dove un particolare gene sarà espresso. Diversamente dalla sequenza del genoma, quel circuito regolatore non è fisso: è dinamico, è una struttura che cambia se stessa durante il ciclo dello sviluppo.26

Stando così le cose, la realizzazione del progetto genoma umano segna l’inizio di una nuova fase di studio: la genomica funzionale.

Oggi siamo in uno di quei momenti rari e preziosi in cui il successo insegna l’umiltà, e questo potrebbe essere il principale di molti benefici portati dalla genomica. Per quasi cinquant’anni ci siamo illusi che la scoperta delle basi molecolari dell’informazione genetica avrebbe svelato il segreto della vita, che bastasse decodificare il messaggio nella sequenza dei nucleotidi del DNA per capire il programma che fa di un organismo ciò che è. Ci stupiva che la risposta fosse così semplice. Nell’invito ad una genomica funzionale si legge invece il riconoscimento — forse tacito — del divario tra informazione genetica e significato biologico.27

4. Il significato in biologia

Fox Keller, mettendo in stretta relazione la teoria delle strutture dissipative di I. Prigogine (si tratta di strutture che organizzano e manipolano il loro ordine interno indipendentemente dalle condizioni iniziali dissipando calore e quindi consumando energia dall’ambiente) e lo studio dei sistemi auto-poietici di H. Maturana e F. Varela, nonché gli studi di Cibernetica, di biologia molecolare, la bio-matematica, la bio-informatica e la semantica funzionale, contribuisce ad ampliare l’articolazione della teoria della complessità facendo vedere come tale teoria non si riferisca più soltanto alla semplice indagine di fenomeni a carattere dissipativo di stampo markoviano, bensì si allarghi prendendo in esame anche i fenomeni di trasformazione dell’informazione così come essi si generano a partire dalla costituzione di un sistema biologico di elaborazione dell’informazione stessa. Questi nuovi scenari, pertanto, spingono la grande studiosa a fare propria una prospettiva in accordo alla quale, come appunto scrivono A. Carsetti e H. Atlan, i sistemi naturali sono caratterizzati dal fatto che ciò che si auto-organizza al loro interno è la funzione stessa che li determina con il loro significato. Alla luce di queste considerazioni lo studio della funzionalità del genoma costituisce la vera e propria chiave di ingresso dell’indagine scientifica all’interno della complessità dei sistemi naturali (biologici). La genomica funzionale, infatti, rappresenta lo studio della vita cellulare nei suoi diversi livelli, ovvero nelle complesse interazioni tra le molte componenti del sistema. È proprio nell’analisi del concetto di significato biologico, dunque, che risulta possibile rintracciare la differenza reale tra essere umano e scimpanzé.

Soltanto ora che cominciamo a misurarne l’ampiezza, ci stupisce non la semplicità dei segreti della vita, ma la loro complessità. Potremmo dire che la genomica strutturale ci ha conferito il discernimento necessario per riflettere sull’arroganza della visione dalla quale siamo partiti e sui suoi limiti.28

Limiti, questi ultimi, riconosciuti anche dal genetista Willam Gelbart il quale, in virtù dei risultati del Progetto Genoma, ritiene più appropriato paragonare il sequenziamento del genoma umano al disco di Phaistos, ovvero ad un «insieme ancora indecifrato di glifi ritrovati in un palazzo minoico».29

Il riduzionismo genetico, fino ad oggi, ha contribuito a produrre nell’immaginario collettivo l’idea secondo cui il DNA, rappresentando il programma ed il destino della nostra esistenza, costituisce una sorta di «icona-simbolo» della stessa identità umana. Quest’idea si basa su uno degli assunti fondanti della genetica molecolare: il gene, scritto sul DNA è l’insieme di istruzioni per fare una proteina; a sua volta ogni proteina è mattone di una parte di noi e quindi regolatore di funzioni del metabolismo. Ma oggi sappiamo che le cose non stanno così:

Negli inviti ad una genomica funzionale, leggo il riconoscimento dei limiti di un certo riduzionismo estremistico, prevalso fino a poco tempo fa. Anche se il messaggio deve giungere ai mass media, per un numero sempre più consistente di ricercatori in prima linea sembra ovvio che il primato del gene quale concetto fondamentale per spiegare struttura e funzione biologica appartenga ormai al secolo scorso. Che cosa lo sostituirà ora?30

Un gene può essere coinvolto nella sintesi di molte proteine (a volte persino centinaia), al contrario una proteina può avere a che fare con più geni ed i frammenti di DNA possono venire riorganizzati e trascritti così in molti modi diversi.

Da quando è stato introdotto il termine gene, la fiducia nella sua realtà fisica è stata sempre accompagnata dal presupposto che struttura, composizione materiale e funzione erano le proprietà di un singolo oggetto, infilato come una perla su un filo o segmento di DNA. Oggi quell’unica identità è crollata: abbiamo imparato che la funzione non è bell’e mappata sulla struttura e non coincide con un locus prestabilito del cromosoma. Se mai volessimo pensare ancora al gene come ad un’unità di funzione, possiamo anche chiamarlo gene funzionale. Ma non possiamo più ritenerlo identico all’unità di trasmissione responsabile della memoria intergenerazionale o associarlo a essa. Il gene funzionale potrebbe non avere alcuna fissità: spesso ha un’esistenza transitoria e contingente che dipende fortemente dalla dinamica funzionale dell’intero organismo.31

Alla luce di tutto ciò, l’antico postulato dei bio-chimici, «un gene, una proteina» non è esattamente valido: i geni, pur contenendo le informazioni per la sintesi di una sola molecola proteica, non segnano più il destino di un organismo. Nel complesso ambiente cellulare le proteine possono essere ripetutamente modificate e questo accade persino nei batteri; a conferma di ciò, alcuni studi recenti hanno messo in luce il fatto che, negli organismi viventi, il numero di proteine risulta essere di circa il 25% più grande del numero dei geni. La fonte della stabilità genetica, quindi, non si trova nella «struttura di un’entità fissa», bensì diviene il risultato di un «processo dinamico»:

I risultati accumulati nei decenni scorsi ci costringono a pensare il gene come almeno due entità ben diverse: una strutturale, il cui mantenimento è affidato al macchinario molecolare della cellula perché venga trasmesso fedelmente da una generazione all’altra; e una funzionale che emerge soltanto dall’interazione dinamica tra numerosi giocatori, fra i quali il gene strutturale da cui sono derivate le sequenze originarie delle proteine. […] La funzione di un gene strutturale dipende non soltanto dalla sua sequenza, ma dal suo contesto genetico, dalla struttura cromosomica in cui è inserito […], e dal contesto citoplasmico e nucleare specifico di un determinato sviluppo.32

Stando così le cose, secondo la nuova prospettiva presentata da Fox Keller, il riduzionismo genetico, insieme allo stesso concetto di gene, dopo aver raggiunto il limite della sua produttività, lascia ora il posto ad una visione olistica in cui i sistemi biologici non sono più né equivalenti alla semplice somma delle loro parti, né determinabili in base alle condizioni iniziali, altresì costituiscono il risultato di complesse interazioni tra le loro molte componenti: i geni (strutturali e funzionali), gli mRNA, le proteine (soprattutto gli enzimi) ed i metaboliti. Solo quando sarà possibile descrivere in modo soddisfacente le dinamiche di questi quattro «protagonisti della vita della cellula» potremo dire con certezza di conoscere la vita nella sua dimensione molecolare.

Il Progetto Genoma Umano, pertanto, appare agli occhi della comunità scientifica solo una tappa di un più generale, e purtroppo per ora ancora virtuale, Progetto Genomica Funzionale Umana.

5. I programmi distribuiti

Oltre al superamento del concetto tradizionale di gene definito in termini di sequenze del DNA, secondo Fox Keller, i risultati scaturiti dall’HGP metterebbero in luce, in virtù dell’emergenza di un’accezione più distribuita o cibernetica del controllo delle funzioni biologiche, anche il tramonto della concezione monodiana di programma genetico.

Il programma genetico costituisce una fra le innovazioni linguistiche più importanti della biologia molecolare poiché la sua introduzione ha sancito la definitiva separazione della genetica molecolare dalla genetica classica. L’autrice passa ora dall’analisi della funzione dei singoli geni a quella dell’intero genoma, ovvero dalla costruzione di un enzima a quella di un organismo. In che modo interagiscono le proteine per dare luogo ad un organismo vivente? La domanda fa perno sulla regolazione, cioè sull’idea di un agente causale che rappresenta un «ente supervisore incaricato di regolare». Il termine programma è comparso per la prima volta in biologia molecolare nel 1961 con l’articolo di Jacob e Monod dal titolo: Genetic regulatory mechanisms in the synthesis of proteins, nel quale i meccanismi della regolazione genica venivano chiamati regolatori genetici per mettere così in evidenza l’indipendenza dei geni da fattori non genetici per quanto concerne le istruzioni su come e quando agire. L’articolo, inoltre, terminava nel seguente modo:

La scoperta di geni regolatori e operatori rivela che il genoma contiene non soltanto una serie di piani architettonici, ma anche un programma coordinato di sintesi proteica e i mezzi per controllarne l’esecuzione.33

Come già accennato in precedenza, attraverso lo studio dei geni regolatori Jacob e Monod giunsero così alla fondamentale nozione di programma genetico, ovvero un programma di sviluppo della cellula racchiuso all’interno del genoma. Per Jacob si trattava di «un modello mutuato dai calcolatori elettronici che equiparava il materiale genetico di un ovulo al nastro magnetico di un calcolatore».34 Secondo lo scienziato, infatti, la fonte dell’apparente finalità dello sviluppo biologico risiedeva proprio in questo programma scritto con l’alfabeto dei nucleotidi. Rispetto al concetto di azione genica, questa nuova nozione, riecheggiando i recenti progressi dell’informatica e applicandone la logica, consentiva quelle interazioni tra i geni che prima erano escluse potendo accogliere così tutte le nuove ricerche sulla regolazione.

La Cibernetica, la scienza degli automi e la teoria delle macchine divennero per Jacob e Monod non solo una fonte generosa di metafore (come quella di programma), ma, addirittura, fornirono loro la logica attraverso cui «interpretare» il bios.

Come abbiamo già accennato in precedenza, in varie circostanze i due grandi biologi sottolinearono come, a loro giudizio, la logica dei sistemi biologici di regolazione fosse la stessa dei calcolatori: essa ubbidiva, in altre parole, all’algebra di Boole. Il matematico irlandese in Indagini sulle leggi del pensiero del 1854 aveva prospettato l’idea secondo cui bastasse matematizzare la logica aristotelica per ottenere la logica del vivente. Questa prospettiva riduceva la logica umana a mero riferimento, ovvero ad una logica di tipo esclusivamente estensionale (in accordo alla definizione offerta da Carnap nel 1947). Da Aristotele a Popper, fatta eccezione per il realismo logico leibniziano e la logica del concreto hegeliana, non si è mai abbandonato questo paradigma, la logica si è sempre basata esclusivamente su tre principi (non contraddizione, identità e terzo escluso), identificando così il pensiero con la sola deduzione e, aspetto questo ancora più singolare, separando totalmente il significato dalla vita. Ma oggi sappiamo che le cose non stanno in questo modo:

Alla pubblicazione dell’elegante modello di regolazione genica da parte di Jacob e Monod quarant’anni fa, molti credettero che lo sviluppo biologico potesse essere capito nei termini del modello dell’operone, e che il problema dello sviluppo fosse risolto, perlomeno in via di principio. Trent’anni dopo, la visione per cui lo sviluppo era soltanto una questione di accendere i geni giusti al posto giusto veniva descritta dal genetista molecolare Sidney Brenner con un certo sarcasmo: «il paradigma è del tutto vero e del tutto vacuo. Non ci dà la ricetta per fare un topo ma soltanto per fare un interruttore. La vera risposta sta sicuramente nei particolari». […] Oggi, sfogliando le prove accumulate negli ultimi vent’anni, è indubbio che Brenner aveva ragione: il segreto della costruzione di un organismo sta proprio nei particolari.35

Le informazioni contenute nel DNA rimangono essenziali poiché senza di loro lo sviluppo non avverrebbe e quindi non ci sarebbe la vita; tuttavia i risultati di recenti ricerche stanno spingendo i biologi a ripensare il programma dello sviluppo come qualcosa di più complesso rispetto ad un «insieme di istruzioni scritte con l’alfabeto dei nucleotidi» e molto vicino ai precedenti concetti di programma di sviluppo. Non c’è dubbio che i calcolatori sono stati per la biologia molecolare una fonte di ispirazione e di metafore tra le quali spicca quella del programma, tuttavia quest’ultima non va ascritta esclusivamente ai calcolatori: il fatto di equiparare il materiale genetico dell’ovulo al nastro magnetico di un calcolatore non implica necessariamente che quel materiale «trascriva in codice un programma» poiché potrebbe semplicemente codificare dati che, in un secondo momento, vengono elaborati da un programma situato in un altro luogo della cellula.

Proprio nel decennio in cui i biologi molecolari si entusiasmavano per il programma genetico, la metafora veniva usata in maniera ben diversa, nel senso di programma di sviluppo, dagli informatici e dai biologi dello sviluppo. Contrariamente al programma genetico, quello di sviluppo non si trovava in un luogo ben definito (per esempio nel genoma) ma era distribuito in tutto l’ovulo fecondato.36

Secondo questa prospettiva le informazioni non si trovano in luoghi specifici e determinabili, al contrario il sistema agisce come un insieme dinamico all’interno del quale ogni particolare diviene indispensabile nel momento in cui entra in interazione con gli altri dando nascita, così, ad una complessa auto-organizzazione: ecco delinearsi, dunque, la fondamentale nozione di programma distribuito.

Se vogliamo conservare la metafora del calcolatore, potremmo descrivere l’ovulo fecondato con un massiccio elaboratore multi strati, in cui programmi (o reti) e dati sono distribuiti in parallelo in tutta la cellula. In questo caso, il ruolo dei dati e del programma sono relativi: ciò che conta come dati in un programma è spesso il prodotto di un secondo programma, e il prodotto del primo serve spesso da dati per un terzo oppure proprio per il primissimo programma che ha fornito i dati iniziali.37

La vita, dunque, è legata non solo ad un programma scritto nella doppia elica, bensì ad un programma distribuito congiunto a funzioni di auto-programmazione: proprio in ciò consiste il concetto di significato biologico. L’informazione autentica del bios non è in bit (non corrisponde alla semplice logica binaria), bensì va rintracciata nel campo semantico: corrisponde alla logica della possibilità, ovvero alla logica propria del vivente. Rispetto al semplice input dato dal genoma cambia radicalmente il sistema dell’informazione; le dinamiche non lineari di sintesi molecolare delle proteine svolgono un ruolo preponderante nell’organizzazione del vivente: il DNA, attraverso il codice genetico, controlla la sintesi delle proteine le quali però non sono un testo continuo ed ordinato, viceversa sono catene che si raggomitolano favorendo così la trasmissione delle informazioni da una parte superiore ad una inferiore. Tutta l’informazione genetica dell’organismo non risiede nelle condizioni iniziali del processo dinamico dell’ontogenesi, bensì in programmi distribuiti che generano nuova informazione e che rendono impossibile, date le condizioni iniziali, la previsione certa dello stato finale dell’organismo in questione. Per sondare la complessità della dinamica dello sviluppo, quindi, occorre insistere sul fatto che l’importanza dell’intera sequenza del genoma dipende dall’uso strumentale dei dati della sequenza stessa. Infatti, grazie a questi dati e all’individuazione del fitto intersecarsi dei processi di sviluppo, i biologi molecolari hanno riconosciuto gli enormi limiti del controllo centralizzato ammettendo, così, che lo sviluppo costituisce il risultato di una complessa interazione tra funzioni locali e, di conseguenza, che non esiste un’entità misteriosa (per esempio il gene architetto o il cervello) che governa l’insieme.

Il DNA fornisce le sequenze originali (il codice sorgente, per dirla con gli informatici) usate nella costruzione di molte delle proteine che partecipano alle interazioni, ma le sequenze rilevanti sono sparpagliate in tutto il genoma. Inoltre la dinamica dell’interazione tra proteine e siti di legame del DNA — per esempio se una proteina funziona da attivatore o da inibitore — è spesso determinata da caratteristiche della struttura proteica che sono esse stesse soggette a regolazione cellulare.38

Malgrado ciò, gli organismi viventi si evolvono: essendo costantemente in contatto con l’ambiente, stabiliscono con esso uno scambio continuo e circolare di informazioni al punto tale da risultare molto diversi rispetto al loro status iniziale. Stando così le cose, come è possibile, altresì, conciliare la metamorfosi continua dell’evoluzione e l’affidabilità con la quale un singolo organismo effettua il passaggio precario che va dallo zigote all’adulto?

Per sottolineare la differenza tra evoluzione e sviluppo, potremmo prendere a prestito la metafora di Gould e paragonare lo sviluppo a un film la cui trama subisce innumerevoli variazioni a ogni proiezione eppure arriva sostanzialmente allo stesso finale. La stabilità e la robustezza del processo di sviluppo potrebbero essere addirittura un prerequisito dell’evoluzione per selezione naturale. La selezione, si sa, agisce sul fenotipo e non sul genotipo, e senza la capacità di svilupparsi normalmente a dispetto delle vicissitudini dell’ambiente interno ed esterno, gli organismi di un dato genotipo non si svilupperebbero in un dato fenotipo in modo abbastanza affidabile perché la selezione possa agire su di essi. Poiché un dato fenotipo può spesso essere prodotto dai percorsi molecolari e di sviluppo più diversi, si potrebbe dire che la stabilità fenotipica superi la stabilità genotipica. […] Inoltre quando avviene una variazione dei caratteri individuali, in ogni generazione l’ovulo fecondato si sviluppa — con un’affidabilità stupefacente — in un adulto comunque riconoscibile chiaramente come membro di una data specie.39

Ciò nonostante, alcune questioni rilevanti restano aperte. Come mai, per esempio, lo sviluppo di un organismo raggiunge lo scopo finale? Cosa garantisce questa affidabilità? Ma, domanda ancora più radicale, cos’è un organismo? Nella Critica della facoltà di giudizio del 1790 Emmanuel Kant dà una delle prime definizioni di ciò che si intende per organismo: «Un prodotto organizzato della natura è quello in cui tutto è scopo e vicendevolmente anche mezzo. Niente in esso è gratuito, senza scopo, o da ascrivere ad un cieco meccanismo della natura».40 L’organismo (da organon che in greco significa strumento) costituisce, quindi, quel sistema di organi (strumenti) in grado di auto-governarsi: nessuna forza esterna, ma soltanto la dinamica interna dell’essere stesso è responsabile dell’organizzazione della natura.

In un tale prodotto della natura ogni parte, così come c’è soltanto mediante tutte le altre, è anche pensata come esistente in vista delle altre e del tutto, vale a dire come strumento […] Solo allora e per ciò un tale prodotto potrà essere detto, in quanto essere organizzato e che si auto organizza, uno scopo naturale.41

A più di duecento anni da queste meravigliose considerazioni, la genomica funzionale non può che riconoscere al grande genio del settecento il merito di aver individuato la caratteristica principale della vita: l’auto-organizzazione. Egli, infatti, ponendo in relazione gli esseri viventi con l’auto-regolazione, non solo si oppone esplicitamente all’idea di disegno, ma giunge perfino a distinguere nettamente l’organizzazione della natura con qualsiasi altra causalità. Successivamente, alla biologia è spettato l’arduo compito di capire nella sua «essenza» il carattere di questa particolare auto-organizzazione. Secondo Jacob e Monod la risposta consisteva nel programma genetico, «guida invisibile» (inscritta nella sequenza di radicali amminoacidi) in grado di «dirigere l’organismo».

A metà degli anni novanta, però, a Jacob bastava guardarsi attorno per vedere un nuovo tipo di macchina, un congegno meccanico che in qualche maniera prometteva di colmare il divario tra gli organismi e le macchine di ieri. […] La metafora del programma proveniva direttamente dal modello proposto originariamente da Turing per il calcolatore, ma l’idea di una macchina dotata di intenti era mutuata dalla visione cibernetica di Wiener. Una volta localizzato il genoma, purtroppo, il programma perdeva gran parte di quanto previsto dalla visione: l’orientamento verso uno scopo e l’auto-organizzazione.42

In virtù di queste considerazioni, dunque, appare chiaro come, a partire dagli anni ottanta, la falsificazione dell’idea monodiana di programma genetico abbia favorito, agli occhi della comunità scientifica, l’emergenza di una nuova concezione: l’auto-programmazione. Quest’ultima costituisce ancora oggi quella proprietà fondamentale che caratterizza ogni organismo vivente. Nella dinamica dell’auoto-organizzazione, infatti, è la funzionalità stessa del genoma a creare l’informazione genetica: il significato non si aggiunge, ma, al contrario, genera la sintassi (la sequenza di basi nucleotidiche). Secondo questa prospettiva, quindi, il significato biologico, «volto nascosto» dell’informazione genetica, rappresenta quella funzione creatrice ed organizzatrice che, immersa nel tempo, costituisce la base della vita. Gli organismi si auto-manipolano e performano, pertanto nella misura in cui il sistema si costituisce come realtà autonoma, l’origine del significato relativo all’auto-programmazione dello stesso sistema giunge a rivelarsi, sul piano oggettivo, come una proprietà emergente. Le complesse interazioni tra le diverse funzioni di auto-programmazione del genoma, in base alla continua relazione col mondo esterno, costruiscono l’organismo attraverso la costante realizzazione di nuovi significati. Stando così le cose, le «regole» (informazione genetica) che costituiscono ogni organismo mutano a seconda del contesto in cui si trovano poiché non sono più (come pensava Monod) un programma fisso selezionato costantemente dall’ambiente, bensì programmi che si auto-programmano e che vengono modificati continuamente dalla natura: il DNA diviene, quindi, quella realtà funzionale unica che determina la complessità e l’unicità di ogni vivente. La vita non è semplicemente identità a se stessa, bensì gioco dei possibili (le combinazioni genetiche sono infinite), scelta e apertura costante alla novità, ovvero cognizione e crescita continua:

Poco più di dieci anni fa, nuove tecniche per la distruzione mirata (o knock-out) di determinati geni nel loro contesto biologico reale rese possibile studiarne la funzione in un mammifero vivo. I risultati colsero tutti di sorpresa: soltanto di rado i knock-out producevano l’effetto previsto. In molti casi l’eliminazione di un gene o la sua sostituzione con una copia anomala non aveva alcun effetto nemmeno quando il gene era ritenuto essenziale. In alcuni casi, la procedura di distruzione/sostituzione sembrava addirittura dar luogo ad un miglioramento della funzione.43

Se un gene viene eliminato dal DNA altri geni prendono il suo posto come se l’organismo facesse delle scelte.

Il dottor Capecchi sostiene che dati i numerosi errori molecolari che avvengono durante la creazione e la crescita di un organismo, la ridondanza in esso incorporata è sicuramente essenziale alla sua sopravvivenza. […] Grazie alle tecniche knock-out, i casi di effetti nulli sono aumentati esponenzialmente e oggi i ricercatori concordano nel dire che essi indicano l’esistenza di una ridondanza funzionale diffusa nei percorsi genetici. Addirittura, a livello della trascrizione e della sua attivazione […] la ridondanza è emersa come un’importante caratteristica dell’organizzazione e dello sviluppo degli organismi complessi […].44

La scoperta del fenomeno della ridondanza, dunque, mette in crisi il paradigma tradizionale della genetica sia perché elude le sue principali tecniche di analisi basate sull’identificazione di mutanti legati a effetti fenotipici, sia perché nella prospettiva dell’evoluzione non ha molto senso. Infatti, se i geni ridondanti non procurano ovvi vantaggi selettivi all’organismo come mai l’evoluzione non se ne è disfatta?

I primi lavori in teoria dell’informazione degli anni cinquanta hanno insegnato una grande lezione: la fedeltà della trasmissione delle informazioni esige la ridondanza. […] Tautz ricorda la lezione e per i sistemi viventi suggerisce un’ovvia analogia: «la formazione di un organismo adulto può essere considerata come la trasmissione di informazioni che risiedono nell’ovulo e nel suo genoma […] A ogni fase dello sviluppo, c’è una potenziale perdita di informazioni contro la quale l’organismo deve proteggersi. […] La pressione selettiva non deve necessariamente essere forte, poiché anche un piccolo effetto sulle probabilità di completare con successo l’embriogenesi si rifletterebbe direttamente sulle probabilità di sopravvivenza della discendenza.45

L’evoluzione dei percorsi regolatori ridondanti, quindi, può essere letta come una conseguenza logica dell’evoluzione della «vita metazoica complessa» poiché è la stessa ridondanza che garantisce l’affidabilità degli organismi. Tuttavia, oltre alla proprietà or ora accennata, la vita si serve anche di un altro mezzo per garantire agli organismi affidabilità e robustezza: la complessità. Gli organismi viventi, infatti, sono «sistemi complessi di interazione che si auto-equilibrano per il modo stesso in cui sono organizzati».46

Secondo questa prospettiva, dunque, la nozione monodiana di invarianza legata all’idea di un programma genetico fisso ed immutabile, lascia il posto a quella di emergenza del significato, cioè apertura al possibile e alla complessità. Gli organismi viventi non sono meri «spettatori» del mondo, al contrario sono «attori-costruttori» che, in continuo rapporto con l’ambiente, trasformano se stessi creando così sempre nuovi significati. Il DNA, pertanto, non è un programma fisso che dice quello che saremo, bensì costituisce quel fascio di capacità che esprime la logica della vita fondata sul concetto-chiave di possibilità. Stando così le cose, a nostro giudizio, la vita appare come un fenomeno di transazione, ovvero il risultato di una serie di accomodamenti che costituiscono e modificano imprevedibilmente le parti del gioco stesso. Per cogliere in profondità la complessità del bios non basta dunque un sistema linguistico (sistema di programmi), diversamente, questi elementi devono essere legati al significato poiché la vita, come ci insegna appunto Monod, è teleonomia, ovvero progetto autonomo che si dà da sé il proprio telos.

Secondo questa prospettiva, dunque, ogni organismo vivente costituisce quel progetto in grado di fissare per sé il proprio scopo e, di conseguenza, di portare autonomamente il significato al di fuori di sé; ma poiché l’assimilazione, caratteristica fondamentale del bios, non può che avvenire sulla base di un progetto, un organismo vivente può essere definito anche come un sistema funzionale cognitivo che si auto-programma. Qui possiamo riconoscere con precisione quel particolare intreccio di auto-organizzazione, complessità, emergenza, assimilazione e intenzionalità (legata allo scopo) che ci permette di «leggere» la vita come fenomeno cognitivo e co-evolutivo.

In linea con questa prospettiva, dunque, poiché l’attività di un embrione mostra le caratteristiche di un’attività guidata da uno scopo, è possibile affermare che, in quanto progetto e sistema funzionale cognitivo che si auto-programma, tale embrione risulta a tutti gli effetti un organismo vivente. C’è vita quando c’è significato: essa è progetto che non può farsi puro codice, ovvero non può mai ridursi a programma fisso. Il bios, quindi, può essere interpretato, nel giudizio di un filosofo, come un «processo di svelamento estatico» in cui il significato emerge e si svela nel tempo.47


  1. Ibidem, p. 15. ↩︎

  2. Ibidem, p. 15-16. ↩︎

  3. Ibidem, p. 16. ↩︎

  4. Ibidem, p. 18. ↩︎

  5. Ibidem, p. 19. ↩︎

  6. Ivi. ↩︎

  7. Ibidem, p. 21. ↩︎

  8. Ivi. ↩︎

  9. Ibidem, p. 180. ↩︎

  10. Ibidem, p. 22. ↩︎

  11. Ibidem, p. 114. ↩︎

  12. Ibidem, p. 7. ↩︎

  13. Ibidem, p. 45. ↩︎

  14. Ibidem, p. 46. ↩︎

  15. Ivi. ↩︎

  16. Ibidem, p. 92. ↩︎

  17. Ibidem, p. 102. ↩︎

  18. Ibidem, p. 105. ↩︎

  19. Ibidem, p. 109. ↩︎

  20. Ibidem, p. 127. ↩︎

  21. Ibidem, p. 131. ↩︎

  22. Ibidem, pp. 133-134. ↩︎

  23. E. F. Keller, Il secolo del gene, Garzanti, Milano 2001. p. 8. ↩︎

  24. Gilbert, W., A vision of the grail, in Kevles D. J. e L. Hood (eds), The Codes of Codes: Scientific and Social Issues in the Human Genome Project, Cambridge, MA: Harvard University Press, 1992, pp. 83-97. ↩︎

  25. Keller, Il secolo del gene, p. 27. ↩︎

  26. Ibidem, p. 80. ↩︎

  27. Ibidem, p. 9. ↩︎

  28. Ibidem, p. 10. ↩︎

  29. Gelbart, W., «Data bases in genomic research», Science, 282, (1998) p. 660. ↩︎

  30. Keller, Il secolo del gene, p. 10. ↩︎

  31. Ibidem, p. 55. ↩︎

  32. Ibidem, p. 56. ↩︎

  33. Jacob, F. et. J. Monod, «Genetic regulatory mechanisms in the synthesis of proteins», Journal of Molecular Biology, 3 (1961) pp. 318-356. ↩︎

  34. Keller, Il secolo del gene, p. 65. ↩︎

  35. Ibidem, p. 75. ↩︎

  36. Ibidem, p. 65. ↩︎

  37. Ibidem, p. 79. ↩︎

  38. Ibidem, p. 77. ↩︎

  39. Ibidem, p. 82. ↩︎

  40. E. Kant, Critica della facoltà di giudizio, Einaudi, Torino 1999, pp. 209-210. ↩︎

  41. Ibidem, p. 207. ↩︎

  42. Keller, Il secolo del gene, pp. 85-87. ↩︎

  43. Ibidem, p. 87. ↩︎

  44. Ibidem, p. 88. ↩︎

  45. Ibidem, pp. 89-90. ↩︎

  46. Ibidem, p. 91. ↩︎

  47. Questo articolo costituisce una rielaborazione di alcune tematiche sviluppate nella mia tesi di laurea dal titolo: Per una rivisitazione della dottrina monodiana della morfogenesi autonoma alla luce dei nuovi scenari aperti dalla post-genomica. Ringrazio calorosamente il mio relatore, il prof. Arturo Carsetti, per avermi guidato nella preparazione della dissertazione di laurea con grande competenza, disponibilità e profonda umanità. ↩︎