Simulazione informatica e vita artificiale. È possibile per l’uomo creare la vita reale?

1. Premessa

Alla luce dei buoni risultati ottenuti dalle ricerche attuali nel campo della filosofia della biologia e delle affascinanti prospettive aperte dalla post-genomica, si sta assistendo, negli ultimi anni, ad una rivisitazione di quelli che sono ormai i veri e propri classici della biologia del novecento, vale a dire i lavori di Monod, Crick e Jacob.1 Questa rivisitazione sta, attualmente, mettendo in luce come questi grandi scienziati, con le loro geniali intuizioni, abbiano cambiato radicalmente il volto della biologia contemporanea iniziando, per alcuni aspetti, il cammino stesso della filosofia della biologia.

Monod offre alla biologia contemporanea la possibilità di costruire un nuovo paradigma e di individuare un codice per esso: egli presenta la teoria molecolare del codice come teoria generale degli esseri viventi, ovvero di quegli «oggetti strani» che si distinguono da tutti gli altri oggetti dell’universo in quanto dotati di teleonomia, morfogenesi autonoma e invarianza riproduttiva. Gli organismi viventi, dunque, sono «unità funzionali coerenti ed integrate in grado di costruirsi da sé»:

La struttura di un essere vivente […] deve tutto, dalla forma generale fino al minimo particolare, a interazioni morfogenetiche interne all’oggetto medesimo. […] Struttura che testimonia un determinismo autonomo, preciso, rigoroso, che implica una libertà quasi totale verso agenti o condizioni esterne, capaci di ostacolare questo sviluppo ma non di dirigerlo né di imporre all’oggetto vivente la sua organizzazione.2

Il meccanismo morfogenetico costituisce la base della teleonomia e consente agli organismi viventi la conservazione e la moltiplicazione delle specie, cioè il realizzarsi del progetto teleonomico originario. Quest’ultimo «consiste nella trasmissione, da una generazione all’altra, del contenuto d’invarianza caratteristico della specie. Tutte le strutture, le prestazioni, le attività che concorrono al successo del progetto essenziale saranno quindi chiamate teleonomiche. […] Si può allora affermare che il livello teleonomico di una data specie corrisponde alla quantità d’informazione che deve essere trasferita, in media, per individuo onde assicurare la trasmissione del contenuto specifico di invarianza riproduttiva alla generazione successiva.»3 Alla luce di tutto ciò, dunque, in accordo a Monod, è possibile asserire che in ogni organismo vivente la struttura stessa delle molecole raggruppate costituisce la fonte dell’informazione per la costruzione dell’insieme. L’organizzazione globale di un organismo complesso è già contenuta nella struttura dei suoi costituenti, tuttavia diviene attuale grazie alle loro interazioni:

Quest’analisi, come si vede, riduce a mera disputa verbale, priva di qualsiasi interesse, l’antica polemica tra pre-formisti e epigenisti: la struttura compiuta non è pre-formata, in quanto tale, in alcun luogo, ma il suo progetto è presente nei suoi stessi costituenti. Essa si può dunque realizzare in modo autonomo e spontaneo, senza intervento dall’esterno, senza immissione d’informazioni nuove: l’informazione è già presente, ma rimane inespressa, nei suoi costituenti. La sua costruzione epigenetica non è dunque una creazione, bensì una rivelazione.4

Jacob e Monod, pertanto, attraverso lo studio dei geni regolatori, giungono alla fondamentale nozione di programma genetico, ovvero un programma di sviluppo della cellula racchiuso all’interno del genoma. Secondo i due scienziati, infatti, immediatamente dopo il concepimento esiste in essenza un programma completo di sviluppo di un nuovo essere vivente, un programma che però ha la peculiarità di essere singolare e discriminante di ogni organismo.

Tutto il determinismo del fenomeno ha origine, in definitiva, nell’informazione genetica costituita dalla somma delle sequenze polipeptidiche interpretate, o meglio filtrate, dalle condizioni iniziali. L’ultima ratio di tutte le strutture e prestazioni teleonomiche degli esseri viventi è dunque racchiusa nelle sequenze dei radicali amminoacidi dei filamenti polipeptidici.5

La realizzazione del Progetto Genoma Umano, negli ultimi anni, ha segnato una cesura con questa concezione monodiana poiché ha dato nascita ad una nuova fase di studio: la genomica funzionale. Fox Keller, proseguendo il cammino tracciato dalle fondamentali scoperte di Jacob e Monod, capisce che per fare previsioni sulle funzioni precise delle innumerevoli regioni codificanti non basta analizzare la sequenza meramente sintattica del DNA poiché la stabilità strutturale dei geni costituisce «Non il punto di partenza ma il prodotto finale di un processo dinamico altamente orchestrato che richiede la partecipazione di un gran numero di enzimi organizzati in reti metaboliche complesse, le quali regolano e assicurano sia la stabilità della molecola di DNA che la sua replicazione fedele.»6 Questi risultati, pertanto, conducono la grande studiosa a rivisitare la dottrina della morfogenesi autonoma monodiana attraverso una prospettiva in accordo alla quale, come appunto scrivono A. Carsetti e H. Atlan, i sistemi naturali sono caratterizzati dal fatto che ciò che si auto-organizza al loro interno è la funzione stessa che li determina con il loro significato. Stando così le cose, lo studio della funzionalità del genoma costituisce la vera e propria chiave d’ingresso scientifica all’interno della complessità dei sistemi biologici.

Per quasi cinquant’anni ci siamo illusi che la scoperta delle basi molecolari dell’informazione genetica avrebbe svelato il segreto della vita, che bastasse decodificare il messaggio nella sequenza dei nucleotidi del DNA per capire il programma che fa di un organismo ciò che è. Ci stupiva che la risposta fosse così semplice. […] Ora che cominciamo a misurarne l’ampiezza, ci stupisce non la semplicità dei segreti della vita ma la loro complessità.7

La genomica funzionale rappresenta lo studio della vita cellulare nei suoi diversi livelli, ovvero nelle complesse interazioni tra le molte componenti del sistema. È proprio nell’analisi del concetto di significato biologico, dunque, che risulta possibile rintracciare la differenza concreta tra la concezione di programma genetico di Monod e quella di programmi distribuiti della Keller. Secondo questa nuova prospettiva le informazioni non si trovano più in luoghi specifici e determinabili, al contrario il sistema agisce come un insieme dinamico all’interno del quale ogni particolare diviene indispensabile nel momento in cui entra in relazione con gli altri generando, così, una complessa auto-organizzazione.

La fonte della stabilità genetica diviene, dunque, il risultato di un processo dinamico:

Ora abbiamo imparato che anche la funzione genica va capita in termini dinamici. Siccome la funzione biologica è inerente all’attività delle proteine più che all’attività dei geni, il crollo dell’ipotesi un gene-una proteina toglie di mezzo la possibilità di attribuire una funzione al gene inteso, per tradizione, come un’unità strutturale. Nemmeno dopo che è stato riconfigurato come unità funzionale […] il gene può essere ricollocato sopra e fuori dai processi che specificano l’organizzazione cellulare ed intracellulare. Quel gene è parte integrante dei processi definiti e messi in opera dall’azione di un sistema complesso e auto-regolato, nel quale e per il quale il DNA ereditato fornisce la materia prima assolutamente indispensabile, ma nulla di più.8

Stando così le cose, il riduzionismo genetico, insieme allo stesso concetto di gene, dopo aver raggiunto il livello massimo di produttività, lascia ora il posto ad una visione olistica in cui i sistemi biologici non sono più né equivalenti alla semplice somma delle loro parti, né tanto meno determinabili in base alle sole condizioni iniziali; essi appaiono costituire il risultato di complesse interazioni che si danno al livello della molteplicità immensa delle loro componenti. Fox Keller, quindi, mettendo in luce l’esigenza della circolarità continua tra strutture proteiche e nucleotidiche, introduce mutamenti profondi per quel che concerne il concetto di programma genetico ed individua altresì il compito della ricerca contemporanea nella circolarità.

Oggi, tuttavia, gli scienziati nel cercare di capire i processi cellulari che portano alla funzione biologica, hanno bisogno dell’aiuto di scienze sincretiche. Per descrivere le funzioni biologiche, infatti, serve un lessico che comprenda concetti appartenenti all’ingegneria, all’informatica e alla fisica: ecco dunque il delinearsi di nuove aree di ricerca come ad esempio la bio-informatica e la vita artificiale .

2. La bio-informatica

Durante l’ultima guerra gli ingegneri diventarono efficienti nel progettare macchine finalizzate allo svolgimento di compiti che le precedenti generazioni ritenevano superiori a capacità non umane. Le ricerche di Wiener in ambito cibernetico portarono alla realizzazione di macchine dotate di intenti; alla luce di tali ricerche, infatti, ci si accorse che il comportamento di un pilota automatico non era diverso da quello di un organismo vivente (per esempio un embrione) poiché entrambi mostravano un’attività guidata da uno scopo. Queste nuove idee, suggerite da meccanismi auto-regolatori, si rivelarono estremamente utili per la biologia:

Dagli anni cinquanta nel campo dell’intelligenza artificiale prevaleva il presupposto che la capacità di risolvere problemi risiedeva in un’intelligenza centrale, la quale operava in base ad una descrizione o rappresentazione simbolica del mondo già iscritta nel sistema. Dopo trent’anni di sforzi, però, i risultati rimanevano deludenti. Pochi sistemi progettati in questo modo erano in grado di operare nel mondo reale […]. Insieme ai colleghi, Brooks ha suggerito un’alternativa: progettare agenti autonomi capaci di svolgere i compiti incontrati durante l’interazione con il mondo, invece dei compiti per i quali sono appositamente costruiti. Come arrivare a questo risultato?9

Brooks propone una «programmazione interattiva», ovvero software concepiti per percepire gli stimoli dall’ambiente durante l’attività dei robot in modo tale da cercare «programmi secondari» in grado di elaborare le informazioni ottenute. Le caratteristiche essenziali di questa «robotica basata sul comportamento» sono la collocazione e l’ incorporazione: i robot, una volta collocati nel mondo, hanno a che fare con il «qui e ora» dell’ambiente esterno che influenza direttamente il comportamento del sistema.10 In questo senso le macchine sono come corpi che istaurano un’interazione costruttiva con il mondo: le azioni hanno una retroazione immediata sulle sensazioni provate dal robot che le compie. Tali proprietà sono state ottenute da Brooks in quattro modi: attraverso l’uso di circuiti paralleli, attraverso la scomposizione del comportamento in diverse spire di «percezione-e-azione» eseguibili autonomamente, attraverso regole locali di interazioni che fanno dipendere la risposta di un’unità dai segnali provenienti dal suo ambiente immediato ed infine attraverso principi di controllo stratificati e robusti in cui i vari strati, pur operando in modo indipendente, sono ordinati in modo tale che i livelli superiori possono sussumere il ruolo di quelli inferiori.

In queste creature, la capacità di risolvere problemi non richiede né una rappresentazione interna né una capacità centralizzata e programmata di elaborare simboli. Compare invece come una proprietà emergente dell’intensa interazione tra il sistema ed il suo ambiente dinamico.11

Alla luce di tutto ciò, appare chiaro come i biologi nel cercare di capire i processi cellulari che portano alla funzione biologica, hanno bisogno dell’aiuto di scienze sincretiche. Per descrivere le funzioni biologiche, infatti, serve un lessico che comprenda concetti appartenenti all’ingegneria e all’informatica («amplificazione», «adattamento», «correzione degli errori», «robustezza» e altri). Dietro a tutto questo, però, vi è la presa di coscienza del fatto che tali proprietà non emergono dalle componenti di un sistema come per esempio singoli geni o singole proteine, bensì dalla loro interazione. Le cellule sono dei sistemi robusti insensibili in maniera specifica a quelle mutazioni che influiscono su attività cruciali: molti geni o interazioni regolatrici non hanno alcun effetto significativo sul fenotipo a meno che un certo insieme di altri geni sia contemporaneamente modificato.

Uno dei vantaggi notevoli dovuti all’ascesa della genomica è stata l’emergenza di una nuova sottodisciplina, la bioinformatica, e di concerto quella di una nuova stirpe di biologi con una formazione informatica. Quando il Progetto Genoma Umano era stato lanciato, sul finire degli anni ottanta, era già ovvio che i metodi convenzionali non sarebbero bastati per gestire le masse di dati provenienti da un sequenziamento completo. Perciò una parte significativa degli sforzi promozionali del Progetto è stata diretta al reclutamento di informatici e alla creazione di centri di bioinformatica. […] Da allora il numero di questi centri è cresciuto in maniera spettacolare e le collaborazioni che hanno generato rientrano tra le maggiori fonti di nuove prospettive in biologia molecolare e, forse soprattutto, del crescente riconoscimento del bisogno di passare a livelli di organizzazione superiori a quelli del gene.12

Il concetto essenziale che la gnomica funzionale, in dialogo costante con le scienze sincretiche, ha mostrato è che l’insieme di interazioni cinetiche all’interno del sistema integrato della cellula determinano non solo le caratteristiche funzionali della singola componente e del sotto-sistema, ma addirittura quelle dell’intero organismo.

La letteratura informatica per ciò che concerne l’affidabilità e la flessibilità è ricca di riferimenti ai sistemi biologici, tuttavia, nella parte finale del suo volume, Fox Keller si sofferma su un esempio in cui il richiamo ai principi dell’organizzazione biologica risulta essere più esplicito: si tratta di un tentativo in corso al MIT, l’amorphous computing o elaborazione amorfa. Gerald Jay Sussman, uno dei responsabili di questa ricerca, pur partendo dal fallimento della progettazione strutturale e dalla fragilità dei sistemi informatici, cerca idee nella biologia dove oggi si riscontra il fatto che «strategie multiple possono essere messe in opera da un singolo organismo per ottenere un’efficacia collettiva superiore a quella di un singolo approccio.»13 La biologia, quindi, diviene per Sussman, non solo campo di applicazione, ma soprattutto, fonte di ispirazione:

L’elaborazione amorfa richiede nuovi modi di concepire la tolleranza degli errori. Tradizionalmente, si cerca di ottenere risultati corretti a dispetto delle parti inaffidabili, introducendo una ridondanza per rilevare gli errori e sostituire le parti difettose. Ma in un regime amorfo, voler ottenere la risposta giusta potrebbe essere un’idea sbagliata: non conviene pensare che un meccanismo quale lo sviluppo embrionale produca l’organismo giusto riparando le parti difettose e le comunicazioni interrotte. Occorre invece strutturare astrattamente dei sistemi per avere una probabilità elevata di ottenere risposte accettabili anche in presenza di inaffidabilità.14

I meccanismi centrali di un sistema amorfo, dunque, consistono nel verificare la coerenza dei risultati intermedi di sistemi progettati in maniera indipendente anche se non c’è una corrispondenza esatta di dati valori nei singoli sub-sistemi. Sussman ed i suoi collaboratori, da ingegneri, hanno lo scopo di rendere concrete queste idee e pensano di riuscirci in due modi:

In primo luogo costruendo sistemi che si ispirano alla biologia non solo come a una metafora, ma come ad una tecnologia concreta per la messa in opera di una nuova attività di elaborazione cellulare e, in secondo luogo, sviluppando su questi processi il controllo che permetterà loro, in quanto ingegneri, di creare organismi nuovi con le proprietà desiderate.15

Ovviamente i biologi hanno intenti diversi, tuttavia possono ugualmente trarre vantaggio dalle idee degli informatici; l’elevato numero di sequenze di genomi completi, infatti, oggi è resa possibile dalle risorse bio-informatiche e da internet. Tutto ciò costringe le bioscienze a compiere un importante passo verso l’integrazione ed il «comportamento sistemico». Questa prospettiva se da un lato ci proietta verso la realizzazione di sistemi artificiali capaci di prestazioni paragonabili a quelle umane nello svolgimento di attività intelligenti (i così detti computers semantici), dall’altro fa emergere una nuova questione:

Mentre calcolatori e organismi sono sempre più invischiati nella trama di idee, competenze e lessico intessuta dalle rispettive discipline […] diventa a volte difficile sapere quale disciplina funga da metafora per l’altra, e perfino distinguere la descrizione di un sistema da quella dell’altro.16

Se gli ingegneri, dopo aver analizzato i «principi di progettazione dei sistemi biologici» come per esempio la rilevazione delle coincidenze, l’amplificazione, i sistemi a prova d’errore e la retroazione (positiva o negativa), concludono che «in biologia progettazioni simili sono comuni», dove divergono, dunque, calcolatori e organismi viventi? Secondo Fox Keller la differenza risiede in un elemento essenziale:

La strada attraverso la quale i due tipi di sistema sono giunti ad essere meccanismi così straordinariamente simili. Per quanto siano stati influenzati dalle strutture biologiche, i calcolatori sono costruiti in base ad una progettazione umana, mentre gli organismi si sviluppano senza i benefici di un progettista (o così di solito si presume). La domanda cruciale per i biologi è perciò questa: quale processo evolutivo ha portato all’esistenza di esseri così complessi e auto-organizzati? Come può un processo che dipende unicamente dalla comparsa casuale di nuove mutazioni aver dato luogo a strutture la cui funzione è di fornire sacche di resistenza alle forze disordinatrici del caso, insomma a strutture progettate per essere robuste?17

Come i classici della biologia del novecento, anche il testo della Keller termina con un interrogativo sulle origini: vero e proprio scacco per il sapere di ogni tempo. La grande filosofa della scienza, pur prendendo in seria considerazione le riflessioni di Jacob e Darwin riguardanti tale questione, tuttavia non sembra essere completamente soddisfatta dalle loro risposte:

Sono tentata di concludere il capitolo laddove era iniziato con un omaggio alla […] creatività di lunghe ere di bricolage, di ricombinazioni casuali di parti preesistenti che, in virtù delle ricombinazioni e con l’aiuto di una costante retroazione proveniente da organismi vicini e dall’ambiente, quasi inavvertitamente acquisiscono nuove funzioni. […] Dopotutto c’è altro da dire, credo. […] Preferisco perciò concludere con una previsione: stanno per comparire molte novità, forse addirittura un altro Cambriano, non più nuove forme di vita biologica, questa volta, bensì nuove forme di pensiero biologico.18

La questione sollevata dagli scienziati del primo novecento resta dunque irrisolta, ma, potremmo dire, «gravida di futuro».

3. Gli automi cellulari

In Expliquer la vie. Modèles, métaphores, et machines en biologie du développement, testo del 2005, la Fox Keller mostra la sua effettiva passione: l’epistemologia. La grande studiosa «interpreta» la biologia come l’immagine stessa della divinità dei nostri giorni, come la divinità del vivente. Il compito principale che la Keller si prefigge è quello di esplorare i segreti del linguaggio della vitadi cui noi siamo espressione eche tuttavia non conosciamo in tutta la sua profondità. In altre parole, anche se l’«essenza» del bios resta misteriosa, lungo tutto il suo stupefacente passaggio dal modello all’espressione estesa della vita, la grande studiosa individua nella disamina dei moduli dell’auto-organizzazione l’unica via in grado di condurre la ricerca verso la comprensione delle regole di questo enigma.

L’utilisation de la simulation informatique pour étudier les systèmes biologiques a explosé au cours des dix dernières années, et elle découle directement du développement historique de la simulation dans les sciences physiques. De fait, à ce jour, ceux qui affirment sa valeur sont encore principalement des physiciens et des mathématiciens. Le plaidoyer de loin le plus vigoureux et le plus répandu vient des scientifiques engagés dans le projet que Christopher Langton a appelé « vie artificielle ».19

La prima volta che Langton usò quest’espressione così scrisse:

Le but ultime de l’étude de la vie artificielle serait de créer de la vie dans un autre milieu, l’idéal serait un milieu virtuel dans lequel l’essence de la vie aurait été débarrassée des détails de sa mise en jeu dans des modèles particulaires. Nous voudrions construire des modèles qui soient si semblables à la vie qu’ils cessent d’être des modèles de la vie pour devenir les exemples mêmes de la vie.20

Questa nuova area di ricerca fu inaugurata ufficialmente nel congresso appositamente organizzato dallo stesso Langton a Los Alamos, in quell’occasione, infatti, il grande informatico disse: «La vie artificielle est un domaine relativement nouveau qui emploie une approche synthétique pour étudier la vie telle qu’elle pourrait être. Elle conçoit la vie comme une propriété de la matière ainsi organisée.»21

Il termine simulazione informatica, nella sua prima accezione, faceva riferimento all’uso dei calcolatori numerici per la soluzione di equazioni differenziali le quali costituivano la base matematica di molti modelli dei fenomeni fisici e naturali. Questa utilizzazione, però, presentava il problema di dover rappresentare le variabili continue, contenute nelle equazioni, tramite delle quantità discrete costituite da numeri da 32 a 64 bit. Questo problema portava alla necessità di dover operare delle approssimazioni: in particolare, per molte equazioni non lineari dovevano essere usati metodi ad hoc per calibrare l’accuratezza di valori di grandezza imprecisi (approximations):

Cependant, lorsqu’on a tenté de mettre au point de meilleures théories du comportement des fluides, les ordinateurs ont rapidement été utilisés pour simuler non seulement les équations mais aussi la dynamique moléculaire des fluides réels. Une grande partie des simulations informatiques de systèmes biologiques repose sur un progrès supplémentaire, à savoir l’utilisation d’ordinateurs pour explorer des phénomènes pour lesquels on n’a encore formulé aucune équation ni aucune sorte de théorie générale, et pour lesquels on ne dispose que d’indications rudimentaires sur la dynamique des interactions sous-jacentes.22

Ad esempio i modelli teorici delle esplosioni nucleari e lo studio delle supernove implicano la risoluzione di centinaia di equazioni differenziali che descrivono l’interazione di un numero molto grande di isotopi. In questi casi ciò che è simulato non costituisce né un insieme ben stabilito di equazioni differenziali, né le costituenti fisiche particolari del sistema, bensì il fenomeno osservato così come si manifesta nella sua complessità: il tentativo, dunque, è quello di ridurre tale complessità alla sua dinamica essenziale. Lo studio di questi sistemi ha portato, in questi ultimi anni, allo sviluppo di una nuova area di ricerca detta teoria dei sistemi complessi in cui i metodi computazionali svolgono un ruolo fondamentale. La teoria or ora accennata parte dallo studio del comportamento delle singole componenti di un sistema complesso e dalle loro interazioni basandosi sull’ipotesi che le proprietà microscopiche dei componenti sono trascurabili e che il comportamento collettivo non varia se variano di poco le leggi che regolano il comportamento dei singoli componenti. A conferma di ciò, Stephen Wolfram così scrive:

La science s’est traditionnellement concentrée sur l’analyse des systèmes en les décomposant en constituants simples. Une nouvelle forme de science se développe actuellement, qui aborde le problème de la manière dont ces parties agissent ensemble pour produire la complexité du tout.

Dans cette approche, il est fondamental de rechercher des modèles qui soient aussi simples que possible à construire, mais qui possèdent les caractères mathématiques essentiels nécessaires pour reproduire la complexité observée. Les automates cellulaires offrent probablement les meilleurs exemples de modèles de ce type.23

Gli automi cellulari sono sistemi dinamici discreti in grado di riprodursi, la cui struttura è quella propria di sistema parallelo distribuito. Ogni elemento dell’automa in una griglia spaziale regolare è detto cella e può essere in uno degli stati finiti che la cella può avere. Gli stati delle celle variano secondo una regola locale e sono aggiornati contemporaneamente in maniera sincrona. L’insieme degli stati delle celle compongono lo stato dell’automa; così, secondo questo modello, un sistema viene rappresentato come composto da tante semplici parti ed ognuna di queste parti per evolvere ha una propria regola interna ed interagisce solo con le parti ad essa vicine: l’evoluzione globale del sistema, pertanto, emerge dalle evoluzioni di tutte le parti elementari. Una delle idee fondamentali del concetto di automa cellulare è quella di riuscire a ricostruire il comportamento complesso di un sistema a partire da semplici regole che descrivono l’interazione dei micro-componenti in cui si pensa suddiviso il sistema stesso. «Les automates cellulaires sont si bien accueillis par ceux qui tentent de modéliser des phénomenes pour lesquels on n’a pu formuler aucune équation de la micro-dynamique qui produise la complexité observée.»24 Secondo questa nuova prospettiva, dunque, la complessità di un sistema emerge dall’interazione delle parti che lo compongono. Un esempio di semplice automa cellulare è il Gioco della Vita o A-Life proposto da John Horton Conway. A-Life simula una popolazione di organismi viventi o celle in una griglia bidimensionale che si sviluppano nel tempo sotto l’effetto di tendenze all’accrescimento e all’estinzione. Ogni cella può avere due stati: vivente (1) o morta (0) ed ha un vicinato composto dalle otto celle adiacenti. In base a certe regole date, le celle cambiano stato rappresentando così l’evoluzione di una popolazione di organismi viventi. In realtà il progetto di utilizzare il computer per la simulazione dei processi biologici di sviluppo, riproduzione ed evoluzione, è molto più antico del termine automa cellulare: il vero padre della vita artificiale, infatti, non è Langton, bensì John von Neumann.

La construction initiale de von Neumann, au début des années 1950, était très lourde (elle nécessitait 200 000 cellules avec 29 états pour chaque nœu), mais elle fit date. L’histoire de sa mise au point ensuite (et de sa considérable simplification), depuis le Game of Life de John Conway aux « boucles » de Christopher Langton (1984), encore plus simples, a été racontée à plusieurs reprises. Ce qui est un peu moins connu, c’est l’histoire de l’utilisation des automates cellulaires dans la modélisation des phénomènes physiques complexes (tels que les transitions de phase, la turbulence ou la cristallisation), une activité qui, tout comme la vie artificielle, a explosé dans les années 1980. De fait, le tout premier congrès sur les automates cellulaires s’est également tenu à Los Alamos (quatre ans avant le congrès sur la vie artificielle), et si a donné à Langton l’occasion de faire une première incursion dans la vie artificielle, ce congrès portait principalement sur les sciences physiques. L’apparition d’une nouvelle génération d’ordinateurs à processeurs parallèles à grande vitesse a été d’une importance déterminante dans le regain d’intérêt pour les modèles à automates cellulaires dans les années 1980.25

Wolfram, come abbiamo già accennato, pone l’accento sui progetti sintetici degli automi cellulari di cui l’aspetto più importante, ai suoi occhi, consiste proprio nel fatto che la complessità del sistema non si origina dalle singole proprietà delle parti che lo costituiscono, bensì dal modo in cui queste parti interagiscono; il suo intento è quello innanzitutto di far vedere come da interazioni locali semplici possano scaturire comportamenti globali complessi. Alla luce di tutto ciò, lo studio degli automi cellulari ci permette di fare ulteriori considerazioni sul bios. La fitta rete di connessioni cellulari che caratterizza gli automi è una simulazione di due aspetti fondamentali della vita reale: il connessionismo e la moltiplicazione. La vita, infatti, oltre ad essere significato, è anche un programma distribuito legato a funzioni specifiche di auto-programmazione; in accordo a Monod, come abbiamo già visto, essa è anche un fenomeno di auto-organizzazione in vista di un telos specifico: la riproduzione. Per garantire l’auto-riproduzione von Neumann definì per l’automa cellulare un costruttore universale che fosse realizzato nell’automa tramite un insieme di celle (pattern) con valori di stato particolari ed una regola di transizione di stato per esse. Questo insieme di celle formava un automa virtuale: la griglia di celle di base consentiva di realizzare una macchina di calcolo universale capace di risolvere qualsiasi problema che fosse alla portata di un calcolatore.

4. La vita artificiale

Dagli automi di von Neumann agli studi di Langton e di tutto il gruppo di ricerca di Santa Fé, lungo lo scorrere di questi ultimi trent’anni abbiamo assistito all’emergere di un dibattito sempre più approfondito sui temi della vita artificiale che ci permette di vedere il modo in cui il modello cellulare si realizza a livello di costruzione effettiva. Ma come è possibile che ciò avvenga?

A questo riguardo, ci sembrano rilevanti le considerazioni di Toffoli e Margulis:

Dans la mythologie grecque, c’étaient les dieux eux-mêmes qui représentaient la machinerie de l’univers. […] Dans des conceptions plus récentes, l’univers est créé tout d’un bloc, avec ses mécanismes d’action: une fois en mouvement, il fonctionne tout seul. Dieu se trouve à l’extérieur de lui et peut prendre plaisir à le contempler.

Les automates cellulaires sont des univers stylisés, synthétiques. […] Ils ont leur propre type de matière évoluant dans un espace et un temps qui leur sont propres. On peut en concevoir une variété stupéfiante. On peut réellement les construire et les regarder évoluer. Créateurs inexpérimentés, nous avons peu de chance de produire un univers très intéressant du premier coup; en tant qu’individus, nous avons peut-être des idées différentes sur ce qui rend un univers intéressant ou sur ce que nous pourrions vouloir faire avec. En tout cas, une fois qu’on a vu un univers d’automates cellulaires, on veut en faire un soi-même; quand on en a fait un, on veut en essayer un autre. Après en avoir fabriqué quelques-uns, on est capable d’en tailler un sur mesure dans un but particulier avec une certaine assurance.

Une machine à automates cellulaires est un constructeur d’univers. Comme un orgue, elle a des touches et des registres permettant de mettre en marche, de combiner et de reconfigurer les ressources de l’instrument. Son écran couleur est une fenêtre par laquelle on peut regarder l’univers qui est « joué ».26

In ambito scientifico, l’utilizzazione degli automi cellulari per simulare gli effetti globali non solo ha provocato una visibile trasformazione semantica dei termini «simulazione» e «modello», ma, addirittura, ha contribuito in modo determinante a modificare il senso dell’espressione «reale».27 Come hanno notato più autori, la simulazione informatica giunge a mettere in questione lo stesso concetto di realismo favorendo così la costruzione di una «realtà alternativa» che sembra essere più facilmente interscambiabile con il mondo reale. Gli automi costituiscono dei veri e propri «universi stilizzati e sintetici» in continua evoluzione, universi di cui è possibile osservare la nascita, la riproduzione ed infine la morte. Osservare la storia di un automa cellulare significa guardare una macchina in grado di costruirsi da sé, ovvero un «costruttore d’universi» capace di padroneggiare gli strumenti di cui è fornito. Alla luce di tutto ciò, attraverso lo schermo di un computer è possibile contemplare una realtà alternativa creata dall’uomo la quale, sostituendosi e confondendosi con il mondo reale, conferisce al suo costruttore una sorta di ruolo di creatore: ogni essere umano in grado di dare nascita ad un universo cellulare, infatti, gioca (joué) a tutti gli effetti un ruolo demiurgico. Lo spazio dell’uomo diviene, infatti, lo spazio stesso del possibile.

La questione che ci interessa approfondire in questa sede consiste nella stretta relazione che si instaura tra le considerazioni di Toffoli e Margulis sull’universo fisico or ora accennate e quelle di Langton concernenti la biologia. Langton fa lavorare gli automi cellulari con lo scopo di costruire un universo di esseri viventi all’interno del quale l’ultima ratio consisterebbe proprio nel creare la vita ricorrendo a strumenti del tutto nuovi e non semplicemente meccanici. Le costruzioni formali che hanno sempre svolto la funzione di modelli della vita, passano ora dalla dimensione virtuale a quella reale divenendo così «essi stessi degli esempi della vita».

La vie artificielle, a-t-il répété par la suite, est la biologie de la vie possible, c’est l’étude de systèmes fabriqués par l’homme et présentant des comportements caractéristiques des systèmes naturels vivants. Elle complète les sciences biologiques traditionnelles, qui traitent de l’analyse des organismes vivants, en tentant de produire synthétiquement des comportements semblables à la vie dans des ordinateurs et d’autres milieux artificiels. En étendant les bases empiriques sur lesquelles est fondée la biologie au-delà de la vie qui a évolué sur Terre, caractérisée par des chaînes carbonées, la Vie Artificielle peut contribuer à la biologie théorique en situant la vie-telle-que-nous-la-connaissons au sein d’un domaine plus vaste, celui de la vie-telle-qu’elle-pourrait-être.28

Il senso principale di quest’ultima espressione, ovvero «la vita tale come essa avrebbe potuto essere», a nostro avviso, mette in luce la logica autentica del bios: l’apertura al possibile. La vita è imprevedibilità e quindi novità continua, ma la frase di Langton ci permette di fare un passo ulteriore; la questione che egli pone non concerne semplicemente la possibilità da parte dell’uomo di intervenire sulla vita per modificarla, la sua prospettiva è ancor più radicale: la vita artificiale diviene la biologia della vita possibile. In altre parole si tratta di creare nuovi orizzonti in grado di completare le scienze biologiche tradizionali, lo spazio dell’immaginazione umana si trasforma nello spazio effettivo della biologia poiché c’è la possibilità di articolare un nuovo linguaggio. L’uomo si trova di fronte ad una sfida immensa, una sfida che conduce anche alla necessità di rivisitare teorie filosofiche del primo novecento come ad esempio la sintesi di Bergson in accordo alla quale, come giustamente nota Monod:

L’uomo rappresenta lo stadio supremo a cui è giunta l’evoluzione, ma senza averlo cercato o previsto: egli è piuttosto la manifestazione e la prova della totale libertà dello slancio creatore.29

Ancora una volta, l’indagine sul bios pone in stretto contatto scienza, etica ed antropologia; la prospettiva di Langton, in effetti, se apre al genere umano spazi immensi della possibilità, lo mette anche, d’altro canto, dinanzi a dei pericoli immensi (a livello ad esempio della bio-tecnologia). Con riferimento a questa prospettiva ci sia consentito concludere il presente paragrafo con la seguente annotazione: il bisogno insito nel cuore di ogni uomo di dare un volto al mistero, di spiegare e comprendere totalmente ogni enigma, nasconde in realtà, a nostro avviso, l’esigenza originaria di una risposta totale, un’esigenza che spinge ogni essere umano a scambiare la particolarità per la totalità fino all’incapacità stessa di comprendere il rapporto essenziale esistente tra mezzi e fini. È, quindi, possibile domandarsi: i pur enormi progressi della conoscenza umana a livello della biologia molecolare sono realmente in grado di «interpretare» in modo completo il linguaggio misterioso della complessità della vita? Ed inoltre, ammesso che noi in quanto uomini saremo nel futuro in grado di svelare il segreto di tale linguaggio, potremo mai divenirne dei creatori autonomi senza di nuovo cadere nella nemesi propria dell’antica Torre di Babele?

5. Verso «la sfida della Complessità»

La principale technique de simulation de Vie artificielle est connue sous le nom d’algorithmes génétiques. La méthode des algorithmes génétiques (parfois appelés systèmes adaptatifs) a été introduite pour la première fois lors de tentatives visant à imiter l’évolution par sélection naturelle. Elle exploite les procédures des automates cellulaires en produisant des changements aléatoires (appelés mutations) dans la population des algorithmes (ou gènes) de départ, des procédures d’échange de parties d’algorithmes (appelées croisements génétiques) et un programme de langage machine qui code pour la fabrication de copies (ou reproduction) des nouveaux programmes ainsi construits. Ce programme de langage machine (ou, comme on le désigne souvent, le corps de l’organisme digital) peut être soit inséré dans le hardware de l’unité centrale de traitement de l’ordinateur, soit stocké en mémoire comme des données, pour un traitement ultérieur. Certes, la transformation effective de ces données en un organisme vivant nécessite l’activité (ou l’énergie) de l’unité centrale de traitement, mais l’important, c’est que sa forme finale est indépendante du hardware.30

Il concetto essenziale che la genomica funzionale, in continuo dialogo con le scienze sincretiche, ha mostrato è che l’insieme di interazioni cinetiche all’interno del sistema integrato della cellula determinano non solo le caratteristiche funzionali della singola componente e del sotto-sistema, ma persino quelle dell’intero organismo. Le considerazioni or ora accennate se tradotte nel nuovo linguaggio della simulazione informatica ci conducono verso degli scenari inediti:

Hayles fait à peu prés la même remarque. Elle écrit : « Ces corps d’information ne sont pas, comme les termes pourraient le suggérer, les expressions phénotypiques de codes informationnels. En réalité, les créatures sont leurs propres codes. Pour elles, le génotype et le phénotype sont une seule et même chose ; l’organisme est le code et le code est l’organisme ». De même, il est important de noter que […] le code est considéré à la fois comme génome et programme, comme données et instructions; c’est « l’ensemble de bits qui compose le programme [qui] est le corps de l’organisme » et, en même temps, « la totalité du matériel génétique » de l’organisme (c’est-à-dire son génome). En d’autres termes, le vocabulaire biologique qu’il utilise n’établit pas que le code est le génome, que le génome est le programme et celui-ci le corps de l’organisme, il présuppose tout cela.31

La selezione entra in ballo, quindi, al livello del corpo della realtà: quello che prima era programma, ora diviene corpo biologico. Ecco dunque che il codice e il genoma costituiscono la medesima realtà; quando ciò avviene emergono fenomeni nuovi ed imprevedibili:

La question principale, dans une grande partie de la littérature, est la simulation de l’évolution par sélection naturelle. Comment les organismes numériques évoluent-ils ? L’univers dans lequel on dit qu’ils vivent est défini par l’espace de la mémoire de l’ordinateur et le temps nécessaire au traitement, et l’évolution est définie comme le processus résultant de leur compétition pour cet espace et ce temps. De même que dans le cas de la sélection naturelle agissant sur les organismes biologiques, les gagnants sont les organismes numériques qui ont les plus rapides taux de reproduction et qui, de ce fait, détiennent la plus grande patrie des ressources. Ray conclut donc : « L’évolution engendrera des adaptions permettant d’avoir un meilleur accès à ces ressources et de les employer plus efficacement ».32

Gli specialisti della vita artificiale, nell’ultimo decennio, hanno fatto convergere i loro sforzi nell’utilizzo degli algoritmi genetici (spesso in relazione con le reti neurali) per simulare l’evoluzione dei meccanismi dello sviluppo osservati negli organismi biologici. Questi studi hanno permesso ai ricercatori di abbandonare il modello della causalità e di interpretare il bios come un fenomeno emergente:

L’émergence est ici le terme opérationnel, car on considère que c’est précisément dans leur capacité à produire des formes globales précisément dans leur capacité à produire des formes globales d’une grande complexité que réside la force de ces modèles. Cependant, malgré la proximité avec les processus biologiques qu’indique tout le discours sur les génomes et les programmes, les résultats ont été jusqu’ici décevants.33

Secondo questa nuova prospettiva, dunque, la nozione monodiana di invarianza legata all’idea di programma genetico fisso ed immutabile lascia il posto a quella di emergenza, un’emergenza che appare connessa ad una continua apertura al possibile e ad un approfondimento delle radici della complessità.

Alla luce di tutto ciò, l’obiettivo dei biologi diviene quello di studiare la vita non più come semplice dato, bensì come un fenomeno emergente associato a sistemi complessi adattivi. Il tentativo di studiare l’emergenza senza cadere nei meccanismi causali ed oggettivi ha costituito, negli ultimi anni, uno degli ambiti di ricerca della Teoria della Complessità, ovvero lo studio interdisciplinare dei sistemi complessi adattivi (dai sistemi naturali non biologici fino ai sistemi biologici) e dei fenomeni emergenti (come la vita, la mente e l’organizzazione sociale) ad essi associati.34 La domanda cruciale a cui i teorici della complessità stanno tentando di rispondere concerne le caratteristiche dei sistemi or ora accennati. La risposta a questa domanda, tuttavia, attende ancora una sistemazione teorica rigorosa. In accordo con l’intuizione di Langton è possibile affermare che i sistemi adattivi di media-alta e alta complessità evolvono verso una regione intermedia tra l’ordine ed il caos: il «margine del caos». Quest’ultimo è lo stato ottimale posto tra i due estremi di un ordine rigido, incapace di modificarsi senza essere distrutto e di un rinnovamento incessante, irregolare e caotico. Cosa succede quando un sistema complesso adattivo si trova al margine del caos? Il sistema si auto-organizza. Quando avviene ciò emergono fenomeni nuovi ed imprevedibili: i fenomeni emergenti. In epistemologia un fenomeno è detto emergente se ha natura processuale, se può essere descritto utilizzando un linguaggio qualitativamente diverso da quello usato per descrivere le altre proprietà del sistema cui è associato, se il suo comportamento non è previsto dal modello del sistema e, in fine, se la sua esistenza non dipende dall’esistenza di singole componenti del sistema. La vita associata a qualsiasi sistema biologico (cellule, organi, organismi) è l’esempio per eccellenza di fenomeni che hanno tutte queste caratteristiche: il bios, infatti, costituisce una sorta di miracolo poiché il suo emergere nell’universo non è possibile se non grazie ad un aggiustamento eccezionale delle leggi fondamentali dell’universo stesso le quali oscillano verso quell’ineffabile frontiera tra l’ordine ed il caos.

Come abbiamo già accennato facendo ricorso ai testi della Keller, i teorici della complessità utilizzano come principale metodo di ricerca la simulazione su computer, ciò significa che i sistemi complessi adattivi vengono studiati mediante modelli computazionali di media complessità. Il passaggio dai sistemi complessi reali ai loro modelli computazionali comporta un’immensa diminuzione di complessità. Lo scarto di complessità tra modelli computazionali e sistemi complessi tende certamente a diminuire in virtù della costante produzione di computer e programmi di simulazione sempre più complessi; tuttavia resta il fatto che oggi la complessità dei modelli è ancora lontana da quella dei sistemi complessi adattivi. Alla luce di queste considerazioni, ci si può legittimamente domandare se sia effettivamente possibile per l’uomo «creare la vita reale». In altre parole, una creatura sintetica fisicamente realizzata come per esempio un automa cellulare, può concretamente sostituire la creatura che ha lo scopo di imitare? Fox Keller, nella parte finale del suo testo, così risponde:

Très brièvement, je dirais que même si les organismes synthétiques dans l’espace-temps physique ne sont plus des simulations informatiques, ce sont encore des simulations, bien que dans un milieu différent. Cependant, je ne crois pas du tout à une séparation irréductible entre la simulation et la réalisation. D’une part, les milieux de construction peuvent changer, et ils le feront sûrement. […] D’autre part, on peut également s’approcher d’une convergence entre la simulation et la réalisation, entre les constructions métaphoriques et littérales, en manipulant du matériel biologique déjà existant. Par exemple, les informaticiens pourraient en venir à abandonner le projet d’une synthèse de novo d’organismes artificiels, tout comme les biologistes actuels semblent l’avoir fait. La construction de nouvelles formes de vie, dans la biologie contemporaine, procède d’une manière totalement différente, elle ne part pas des matériaux bruts fournis par le monde inorganique, mais de ceux que fournissent des organismes biologiques existants.35

Gli informatici, dunque, abbandonano la sintesi ex novo degli organismi artificiali e tentano di partire da materiali già evoluti poiché la realtà alternativa costruita dalla simulazione artificiale, attraverso modelli sempre più complessi, non può sostituire, a tutti gli effetti, il mondo reale. In linea di continuità con tale prospettiva e potendo contare sul miglioramento continuo di tecniche e tecnologie, molti studiosi di fama internazionale impegnati in centri di ricerca differenti, negli ultimi anni, hanno tentato simultaneamente di avvicinarsi al genoma minimo necessario per la vita stimato in meno di quattrocento geni circa.

Nel luglio 2007, ad esempio, Craig Venter (cofondatore della Synthetic Genomics, azienda creata per inventare organismi artificiali in grado di produrre bio-carburanti e combustibili alternativi a basso impatto ambientale) ed il suo team sono riusciti ad inserire in un microrganismo il DNA di un’altra specie. Pochi giorni dopo un gruppo di biologi del centro Enrico Fermi, coordinato da Giovanni Murtas, ha cercato di «creare» la prima cellula sintetica racchiudendo in una sfera costituita da lipidi circa quaranta geni; purtroppo, però, l’esperimento è riuscito solo in parte: tale cellula, infatti, è stata in grado riprodurre proteine fluorescenti (GFP) solo per qualche ora.

Una tappa fondamentale lungo il cammino che conduce verso la vita artificiale sembra essere stata raggiunta pochi giorni fa dallo stesso Craig Venter il quale, il 6 ottobre, ha dichiarato in un’intervista rilasciata al quotidiano britannico «The Guardian» di aver realizzato in laboratorio un cromosoma completamente artificiale. «Oltre che un traguardo scientifico», ha spiegato lo scienziato, tale scoperta «rappresenta un importante passo filosofico nella storia della nostra specie. Stiamo passando dalla capacità di leggere il nostro codice genetico alla possibilità di scriverlo. E questo ci rende ipoteticamente in grado di fare cose mai pensabili fino ad oggi.»36 Queste parole hanno dato il via ad una grande speculazione mediatica basata sull’idea inesatta secondo cui grazie alla scoperta di Venter l’uomo sarebbe finalmente in grado di creare la vita reale; a dire il vero, agli occhi della comunità scientifica (in particolare ci riferiamo ai commenti di alcuni autorevoli scienziati tra i quali spiccano A. Vescovi, G. Novelli e E. Boncinelli), quella di Venter, più che essere una scoperta, costituisce senza dubbio un’innovazione tecnologica importante, ovvero un esperimento (tra l’altro ancora da documentare scientificamente visto che all’annuncio non ha ancora fatto seguito alcuna pubblicazione scientifica) che rappresenta un’evoluzione tecnica in più e che potrebbe costituire un passo notevole verso l’esistenza artificiale. Certamente, a livello delle bio-tecnologie, l’esperimento dello scienziato statunitense può aprire interessanti orizzonti sia nell’ambito della produzione di nuovi farmaci, sia nell’ambito energetico dove potrebbe favorire la realizzazione di fonti alternative di energia prima impensabili (si potrebbero produrre batteri capaci di assorbire l’anidride carbonica in eccesso contribuendo così alla soluzione del problema del riscaldamento globale, oppure carburanti come butano e propano prodotti partendo dallo zucchero); tuttavia, nello stesso tempo, queste nuove conoscenze se utilizzate con scopi distruttivi possono condurre l’umanità verso la grande minaccia delle armi batteriologiche.37

Quello che ci interessa approfondire in questa sede, tuttavia, è la questione relativa alla possibilità da parte dell’uomo di oggi di creare effettivamente la vita reale; in tale senso l’esperimento di Venter e del su gruppo di ricerca ci spinge a riflettere perché mette in luce le possibilità e i limiti della conoscenza umana: fino a che livello, infatti, possiamo conoscere e quindi padroneggiare quel linguaggio misterioso che è dentro di noi e che ci permette di essere ciò che siamo?

Il cromosoma è quel filamento di DNA impacchettato in una struttura proteica che si trova nel nucleo delle cellule e che porta su di sé l’informazione genetica di ogni organismo, ovvero i suoi caratteri ereditari (le istruzioni che gli permettono di diventare ciò che è). Nei laboratori di Venter, un’equipe di venti scienziati capeggiata dal Premio Nobel Hamilton Smith sarebbe riuscita nell’impresa precedentemente accennata partendo da un cromosoma esistente, quello del batterio Mycoplasma genitalium. Questo batterio, che vive nelle cellule dei genitali dei primati, è una delle forme di vita più piccole che si conoscano ed ha un unico cromosoma. Proprio questo cromosoma è stato preso dagli scienziati di Venter, spogliato di un quinto delle sue caratteristiche genetiche e quindi ricostruito con sostanze di sintesi fino a farne un filamento lungo circa trecentoottantuno geni (il quale contiene cinquecentoottantamila paia di basi di codice genetico). Il cromosoma, denominato Mycoplasma laboratorium, è stato successivamente inserito nella cellula vivente di un batterio privato del materiale genetico. I ricercatori sperano che in un secondo momento il cromosoma prenda il controllo dello sviluppo di questa cellula producendo, altresì, una forma di vita parzialmente nuova.

In senso stretto l’inserimento del cromosoma all’interno di una cellula pre-esistente non è definibile come specie completamente sintetica poiché il cromosoma utilizzerebbe i sistemi biologici preesistenti per potersi replicare. In laboratorio, dunque, è stata costruita, pezzo per pezzo, una copia leggermente modificata del cromosoma dello stesso batterio. Alla luce di tutto ciò, dunque, non siamo di fronte alla creazione di una nuova vita (una sintesi ex novo di un organismo vivente), bensì, in accordo con Evelyn Fox Keller, alla ricostruzione di un organismo preesistente in natura (ovvero già evoluto) e geneticamente modificato. Questa tecnica, tra l’altro, è stata già sperimentata con successo dallo stesso gruppo di ricerca; in quel caso, però, come abbiamo già accennato in precedenza, ad essere inserito nella cellula di un batterio era il genoma naturale proveniente da un altro batterio già esistente in natura con il risultato di modificare la specie di origine della cellula. Oggi Venter ci riprova con un DNA parzialmente artificiale, ma si è detto «convinto al cento per cento che l’esperimento riuscirà.»

L’obiettivo dello scienziato statunitense è quello di riuscire a trasferire gradualmente il genoma all’interno dei batteri e studiare come i singoli geni si attivino; ciò è fondamentale per capire le funzioni delle singole porzioni di DNA e anche per stabilire il minimo genoma necessario ad attivare i primi processi vitali. Questo tipo di studio si realizza spegnendo un segmento alla volta del genoma, tuttavia è un procedimento complesso e nello stesso tempo limitante. Oggi, infatti, grazie all’importante contributo offerto dagli studiosi che si occupano di complessità, si sta assistendo all’emergenza di nuovi modelli in grado di «interpretare» il bios alla luce di una visione sistemica in cui lo schema un gene — un enzima — un carattere lascia il posto alla circolarità delle funzioni in grado di mutare a seconda del contesto: in tal senso le conseguenze delle operazioni del sistema sono le operazioni del sistema in una situazione di completo auto-riferimento. Applicando questo principio della teoria dei sistemi complessi in biologia, è possibile affermare che l’interconnessione degli elementi che compongono il sistema (cellula, organo, apparato, organismo) è così cruciale che si è obbligati a mettere in primo piano la loro chiusura e la loro circolarità:

In tutti questi casi ciò che avviene nel sistema è la generazione di stati di coerenza auto-determinantesi che comportano uno stato soddisfacente, in uno stesso momento, per tutte le componenti.38

Chiusura significa che il risultato di un’operazione cade ancora entro i confini del sistema stesso. In altre parole, «la chiusura di un sistema può produrre un mondo o dare senso ad un mondo».39 Ciò a livello della biologia molecolare significa che il passaggio dell’informazione dal DNA alle proteine non avviene in modo lineare ed univoco, bensì è da rintracciarsi nella circolarità del sistema; l’informazione genetica (la successione sintattica del DNA), infatti, è costantemente creata e riorganizzata non da semplici risistemazioni di elementi interconnessi, ma da una rete di funzioni di auto-programmazione sparse in tutta la cellula: ad ogni combinazione, ad ogni risistemazione delle parti corrisponde, dunque, un’organizzazione funzionale differente, ovvero un diverso significato delle relazioni che si stabiliscono fra differenti fattori. Questo concetto di auto-creazione del significato come origine dell’auto-organizzazione è stato sviluppato e approfondito in modo particolare da H. Atlan il quale nell’articolo dal titolo Complessità, disordine e auto-creazione del significato, così scrive:

L’aspetto più importante dei fenomeni di auto-organizzazione è l’auto-creazione del senso, cioè la creazione di nuovi significati nell’informazione trasmessa da una parte a un’altra parte o da un livello di organizzazione ad un altro livello di organizzazione. Senza la creazione di nuovi significati avremmo a che fare con ricombinazioni che non sarebbero in grado di portare all’apparizione di nuove funzioni, di nuovi comportamenti.40

Stando così le cose, il significato in biologia costituisce quel vero e proprio mistero invisibile che, celandosi dietro l’informazione genetica, crea costantemente ogni novità e differenza. Alla luce di tali considerazioni, pertanto, appare evidente come Venter abbia senza ombra di dubbio compiuto un passo in avanti molto importante in seno all’ingegneria genetica, ma per andare oltre, ovvero per parlare di vita artificiale servono delle conoscenze tecnologiche e scientifiche che la specie umana attualmente non possiede. Per tali ragioni, i pur enormi progressi della conoscenza umana a livello della biologia molecolare, al momento, non sono in grado di comprendere l’enigmatico linguaggio della vita: traccia di una diacronia irrappresentabile che sfugge costantemente ad ogni tentativo umano di determinazione completa. Questa dimensione antinomica del limite in cui la scienza entra in contatto con quello che alcuni filosofi definiscono come il precategoriale è descritta, in modo impeccabile, da Monod che, nel suo volume, introduce, così, il capitolo dedicato alle frontiere della conoscenza:

Quando si pensa al lunghissimo cammino percorso dall’evoluzione da forse tre miliardi di anni, alla prodigiosa varietà delle strutture che essa ha creato, alla miracolosa efficacia delle prestazioni degli esseri viventi, dal batterio all’uomo, diventa spontaneo dubitare che tutte queste manifestazioni possano essere il risultato di una gigantesca lotteria in cui vengono tirati a sorte dei numeri tra i quali una cieca selezione designa rari vincenti.41

Più avanti il grande biologo francese aggiunge:

Si potrebbe pensare che l’aver scoperto i meccanismi universali su cui si basano le proprietà essenziali degli esseri viventi abbia permesso di risolvere il problema delle origini. In realtà tali scoperte, presentando sotto nuova luce tutta la questione, oggi posta in termini molto più precisi, l’hanno resa ancor più complessa di quanto non sembrasse prima.»42

Teleonomia, morfogenesi autonoma e invarianza riproduttiva, quindi, sono tre manifestazioni distinte di un’«essenza» che, ad un’indagine diretta, permane densa di mistero.

In questo senso, ci sia consentito di chiudere il presente lavoro individuando in Immanuel Kant il primo grande studioso che ha tentato di porre in termini non metafisici il problema della natura umana scindendo, altresì, la caratteristica principale del bios (e quindi degli organismi viventi) da qualsiasi nozione metafisica della vita (si consideri a riguardo l’interessante prospettiva di Tommaso D’Aquino circa I tre gradi d’immanenza di un’operazione vitale).43 Il grande genio del settecento, infatti, prendendo le distanze in modo esplicito dall’idea di disegno, ha il merito di aver distinto nettamente l’auto-organizzazione, caratteristica fondamentale del bios, da qualsiasi altra causalità: «Un prodotto organizzato della natura è quello in cui tutto è scopo e vicendevolmente anche mezzo. Niente in esso è gratuito, senza scopo, o da ascrivere ad un cieco meccanismo della natura.»44 «In un tale prodotto della natura ogni parte, così come c’è soltanto mediante tutte le altre, è anche pensata come esistente in vista delle altre e del tutto, vale a dire come strumento […] Solo allora e per ciò un tale prodotto potrà essere detto, in quanto essere organizzato e che si auto-organizza, uno scopo naturale.»45

Alla luce di tutto ciò, gli organismi viventi non possono essere considerati, quindi, come meri «spettatori» del mondo, bensì come «attori-costruttori» che, in continuo rapporto con l’ambiente, trasformano se stessi creando così sempre nuovi significati.


  1. In particolare ci riferiamo ai seguenti volumi: Crick, F., L’origine della vita, Garzanti, Milano 1983; Jacob, F., Il gioco dei possibili, Mondadori, Milano 1983; Monod, J., Il caso e la necessità, Mondadori, Milano 1970. ↩︎

  2. Monod, Il caso e la necessità, p. 15-16. ↩︎

  3. Ibidem, p. 19. ↩︎

  4. Ibidem, p. 82. ↩︎

  5. Ibidem, p. 90. ↩︎

  6. Keller, E. F., Il secolo del gene, Garzanti, Milano 2001, p. 27. ↩︎

  7. Ibidem, p. 9. ↩︎

  8. Ibidem, p. 56. ↩︎

  9. Ibidem, p. 96. ↩︎

  10. Brooks, R. A., «Elephants don’t play chess», Robotics and autonomous systems, 6, (1990) p. 3-13. ↩︎

  11. Keller, Il secolo del gene, p. 97. ↩︎

  12. Ibidem, p. 99-100. Cors. nostro. ↩︎

  13. Ibidem, p. 98. ↩︎

  14. Abelson, H. et A., «Amorphous computing», White Paper, MIT. http://swiss.csail.mit.edu/projects/amorphous/papers/aim1665.pdf, 1999. ↩︎

  15. Ivi. ↩︎

  16. Keller, Il secolo del gene, p. 101. ↩︎

  17. Ibidem, p. 102. ↩︎

  18. Ibidem, p. 103. ↩︎

  19. Keller, E. F., Expliquer la vie. Modèles, métaphores, et machines en biologie du développement, Gallimard, Janvier 2005, p. 291. ↩︎

  20. Langton, C. J., «Studying artificial life with cellular automata», Physica, 22D, 1986, p. 120-149. ↩︎

  21. Ivi. ↩︎

  22. Keller, Expliquer la vie. Modèles, métaphores, et machines en biologie du développement, p. 292. ↩︎

  23. Wolfram, S., «Theory and application of cellular automata», World Scientific, Singapore 1986 (ed.). ↩︎

  24. Keller, Expliquer la vie. Modèles, métaphores, et machines en biologie du développement, p. 293. ↩︎

  25. Ibidem, p. 295. ↩︎

  26. Toffoli, T. et N., Margulis, «Cellular automata machines: a new environment for modeling», MIT. Press, Cambridge 1987. ↩︎

  27. Keller, Expliquer la vie. Modèles, métaphores, et machines en biologie du développement, p. 295-296. ↩︎

  28. Langton, C. J., «Studying artificial life with cellular automata», Physica, 22D, 1986, p. 120-149. ↩︎

  29. Monod, Il caso e la necessità, p. 29. ↩︎

  30. Keller, Expliquer la vie. Modèles, métaphores, et machines en biologie du développement, p. 302-303. ↩︎

  31. Ibidem, p. 304. ↩︎

  32. Ibidem, p. 304-305. ↩︎

  33. Ibidem, p. 306. ↩︎

  34. Per un’introduzione allo studio della Teoria della Complessità, qui solo accennata, si veda: Prigogine, I., La complessità. Esplorazioni nei nuovi campi delle scienze,Einaudi, Torino 1991; Prigogine, I. e I. Stengers, La nuova alleanza. Metamorfosi della scienza, Einaudi, Torino 1993; Atlan, H.,(1992), «Self-organizing networks: weak, strong and intentional, the role of their underdetermination», La Nuova Critica, 19-20, p.51-71; Carsetti, A. (1993), «Meaning and Complexity: the role of non standard models», La Nuova Critica, 22, p. 57-86; Carsetti, A., «Randomness, Information and Meaningful Complexity: Some Remarks About the Emergence of Biological Structures», La Nuova Critica, 36 (2000): 47-128; Carsetti, A., «La filosofia della scienza di fronte alla sfida della complessità», in Caos Ordine Complessità, I quaderni dell’I.P.E., Cur. G. Del Re, E. Mariani, Napoli 1993; Carsetti, A., «Dalla Cibernetica alla Teoria della Complessità: il percorso intellettuale di Valerio Tonini», in Visione del mondo nella storia e nella scienza, I quaderni dell’ I.P.E., Cur. E. Mariani, Napoli 1998; Carsetti, A., «Semantic Information and Biological Funtions », T. R., Rome (at press); Brocchi, G. e M. Ceruti (a cura di), La sfida della complessità, Mondadori, Milano 2007. ↩︎

  35. Keller, Expliquer la vie. Modèles, métaphores, et machines en biologie du développement, p. 313-314. ↩︎

  36. Saturday October 6 2007, The Guardian: «I am creating artificial life, declares US gene pioneer.» Disponibile all’indirizzo http://guardian.co.uk/science/2007/oct/06/genetics.climatechange/↩︎

  37. Ci riferiamo all’intervista del 7 ottobre 2007 rilasciata da Angelo Vescovi a Il Giornale.it: «Così è stato fatto un passo verso l’esistenza artificiale» di Enza Cusmai. Disponibile all’indirizzo http://www.ilgiornale.it/a.pic1?ID=211359↩︎

  38. Varela, J. F. (1985), «Complessità del cervello e autonomia del vivente», in Bocchi e Ceruti, (a cura di) La sfida della complessità, Mondadori, Milano 2007, p.123. ↩︎

  39. Ibidem, p. 129 ↩︎

  40. Atlan, H. (1985), «Complessità, disordine e auto-creazione del significato», in Bocchi e Ceruti, (A cura di) La sfida della complessità, Mondadori, Milano 2007, p.143. ↩︎

  41. Monod, Il caso e la necessità, p. 127. ↩︎

  42. Ibidem, p. 128 ↩︎

  43. Tommaso D’Aquino [S. Th.]. Summa Theologiae, a cura di Caramello P., Torino 1952-56. [I, 18, 3c]. ↩︎

  44. Kant, I., Critica della facoltà di giudizio, Einaudi, Torino 1999, p. 209-210. ↩︎

  45. Ibidem, p. 207. ↩︎