Verso una fondazione naturalistica delle pre-condizioni dell’etica: semantica molecolare ed intenzionalità nei sistemi viventi

1. Agenti autonomi ed auto-catalisi

In Esplorazioni Evolutive, testo pubblicato nel 2000 dopo una faticosa gestazione durata quattro anni, Stuart Alan Kauffman, uno dei padri della teoria della complessità biologica contemporanea, mostra l’esito di una ricerca serendipica con un cospicuo numero di risultati sorprendenti. Si tratta di un’opera realmente esplorativa, piena di ipotesi di lavoro euristiche, talvolta feconde talvolta destinate al fallimento la cui argomentazione è, a tratti, oscura ed enigmatica, ma da cui traspaiono, senza ombra di dubbio, sia la passione per la ricerca della verità che l’attaccamento ad alcune tracce di lavoro promettenti. Rispetto agli anni di massimo fervore intellettuale del «pensatoio interdisciplinare» formatosi attorno al Santa Fe Institute durante i quali hanno visto la luce The Origins of Order e A casa nell’universo; rispetto, cioè, a quella temperie scientifica di fine novecento dove tutto sembrava possibile (scoprire la quarta legge della termodinamica per i sistemi aperti in non equilibrio, tracciare una teoria unificata dell’universo, decifrare le leggi senza tempo della biologia universale) e dove la Scienza della Complessità gettava ponti tra domini diversi della fisica, fra la Cibernetica e la teoria dell’informazione, nonché fra matematica, scienze biologiche, economia, psicologia e politica; Esplorazioni evolutive, rispetto a quell’epoca pionieristica, «rappresenta al contempo la chiusura di una trilogia e l’apertura di nuove possibilità, mosse dallo stesso stupore sincero, quasi fanciullesco degli esordi».1 Il grande biochimico americano, infatti, nelle sue esplorazioni cerca di dar vita ad un’ermeneutica dell’evoluzione che spieghi la logica costruttivista del vivente, una logica, vale a dire, che deriva dalla selezione naturale, dall’auto-organizzazione e da altri principi che tutt’ora restano incomprensibili. «La cosa strana della teoria dell’evoluzione è che tutti credono di conoscerla. Com’è vero! Essa sembra, naturalmente, così semplice. I fringuelli zampettano sulle Galapagos e migrano occasionalmente di isola in isola; becchi grandi e becchi piccoli sono utili per semi differenti; i becchi che si adattano ai semi nutrono i piccoli; i becchi di giusta foggia vengono favoriti dalla selezione; le mutazioni sono la riserva di variazioni ereditabili in una popolazione; le popolazioni si evolvono per mutazione, accoppiamento, ricombinazione e selezione per dar vita a quelle varietà ben demarcate che, per Darwin, sono nuove specie. Filogenesi a cespuglio nella biosfera. «Siamo qui, siamo qui!», ognuna grida la sua presenza che data a quattro milioni di anni in uno spettacolo all’aperto che si replica da quattro miliardi di anni. «Siamo qui!». Ma come? Come, in molti sensi. Innanzitutto, la teoria dell’evoluzione di Darwin è una teoria della discendenza con modificazioni. Essa finora non ha spiegato la genesi delle forme, ma la rifinitura delle forme, una volta che sono state generate. «Un po’come ottenere un melo potando tutti i rami», citando uno scettico di fine Ottocento. Come, nel senso più fondamentale: da dove è scaturita la vita per la prima volta? Darwin prende le mosse da una vita già presente. Da dove ha origine la vita è la sostanza di tutte le domande successive sull’origine e sul vaglio delle forme. […] La cosa strana della teoria dell’evoluzione è che tutti credono di conoscerla. Ma non è così. Una biosfera, o un’econosfera, si costruiscono in modo auto-consistente secondo principi che ancora non sappiamo spiegare.»2 Questi esercizi di biologia teorica, dunque, si pongono un obiettivo molto ambizioso: andare alle radici della definizione del vivente. Così, il nume che lo studioso invoca, è il padre della meccanica quantistica, ovvero E. Schrödinger ed in particolare il suo capolavoro del 1943 dal titolo Che cos’è la vita? . In quel testo il grande fisico suggerì di non ridurre la vita alla fisica, ma di pensare ad una nuova fisica capace di spiegare l’organizzazione propagante della biosfera e dell’universo, ovverossia l’incessante produzione coevolutiva di nuova diversità e nuova complessità di cui solo la vita è capace. «Erwin Schrödinger […] nel corso delle lezioni magistrali che tenne a Dublino, creò lo scenario della biologia contemporanea. […] Nessuno però, neanche lo stesso Schrödinger, avrebbe potuto prevederne le conseguenze. Al suo libro, Che cos’è la vita? , si ascrive il merito di aver ispirato una generazione di fisici e di biologi alla ricerca della natura fondamentale dei sistemi viventi. Fu Schrödinger infatti a introdurre in biologia la meccanica quantistica, la chimica ed il concetto di informazione, formulato quest’ultimo in forma ancora embrionale. Egli fu l’antesignano della nostra conoscenza del DNA e del codice genetico. Eppure, per quanto geniale sia stata la sua intuizione, io credo che abbia mancato il bersaglio. Esplorazioni Evolutive punta proprio a quel bersaglio, ma trova in realtà un enigma.»3 Nei due libri precedenti, il grande studioso americano aveva messo in rilievo alcune ragioni crescenti per ritenere che l’evoluzione fosse più ricca persino di quanto avesse immaginato Darwin. La moderna teoria dell’evoluzione, basata sul concetto di discendenza con variazioni ereditabili filtrate dalla selezione naturale per conservare i cambiamenti adattativi, è giunta a ritenere la selezione come l’unica fonte di ordine nella biosfera. Ciò nonostante, la delicata simmetria esagonale di un fiocco di neve testimonia, secondo Kauffman, il fatto che l’ordine può emergere anche senza il contributo della selezione. «The Origins of Order e A casa nell’universo, i miei due libri, avanzano ragioni valide per ritenere che una buona parte dell’ordine negli organismi — dall’origine stessa della vita all’incredibile ordine nello sviluppo di un neonato a partire da un uovo fecondato — non sia il riflesso della sola selezione. Piuttosto, io credo, buona parte di tale ordine è auto-organizzato e spontaneo. L’auto-organizzazione si mescola con la selezione naturale secondo modalità poco chiare e produce la nostra pullulante biosfera in tutto il suo splendore. La teoria dell’evoluzione deve perciò essere ampliata. Ma ci serve qualcosa di ben più importante di una teoria dell’evoluzione ampliata. Pur con tutte le valide intuizioni nei miei due libri precedenti, e con l’ottimo lavoro di molte altre persone — incluso il fulgore evidente della biologia molecolare degli ultimi trent’anni -, il cuore della vita stessa è rimasto come nascosto dietro ad un velo. Noi conosciamo frammenti della meccanica molecolare, dei percorsi metabolici, degli strumenti di biosintesi delle membrane. Insomma, conosciamo molte parti e molti processi. Eppure non ci è ancora chiaro che cosa fa di una cellula qualcosa di vivente: il bersaglio è ancora avvolto nell’ombra.»4 Ritorniamo per un momento alle illuminanti intuizioni di Schrödinger ed al suo tentativo di dare una definizione cardinale della vita. Che cos’è la vita? ha fornito una risposta sorprendente alla sua indagine relativa all’essenza del bios, ponendo una questione rilevante: da dove deriva lo straordinario ordine negli organismi? La risposta classica (per Schrödinger erronea) risiedeva nella fisica statistica. Se si sospende una goccia di inchiostro nell’acqua immobile di una capsula di Petri, per esempio, essa si diffonderà raggiungendo all’equilibrio una distribuzione uniforme, che costituisce una media ricavata da un numero enorme di atomi o di molecole, e non è attribuibile al comportamento di singole molecole: qualsiasi fluttuazione locale della concentrazione di inchiostro, infatti, presto si dissipa per ritornare all’equilibrio. Schrödinger basò il suo ragionamento sulla genetica sperimentale e sui dati relativi all’induzione attraverso raggi X di mutazioni genetiche ereditabili. Così, calcolando «la dimensione del bersaglio» di tali mutazioni, egli capì che un gene poteva includere poche migliaia di atomi.5 Si consideri, per esempio, il lancio, 10000 volte, di una moneta regolare. Il risultato sarà 50% testa e 50% croce con una fluttuazione di circa 100, ovvero la radice quadrata di 10000. Una tipica fluttuazione da testa e croce 50: 50, perciò, sarà pari a 100/10000, ovvero all’1%. Si immagini ora che il numero dei lanci sia 100 milioni: le sue fluttuazioni saranno la sua radice quadrata, cioè 10000. Se si effettua la divisione, 10000/10000000 produce una tipica deviazione, pari allo 0. 01%, dal rapporto 50: 50. «Schrödinger era pervenuto alla conclusione corretta: se i geni sono costituiti da diverse centinaia di atomi appena, le fluttuazioni statistiche familiari previste dalla meccanica statistica sarebbero così ampie che l’ereditabilità sarebbe pressoché impossibile. Le mutazioni spontanee si verificherebbero con una frequenza enormemente più grande di quella osservata. La fonte di ordine deve risedere altrove. La meccanica quantistica, sosteneva Schrödinger, viene in soccorso alla vita. Essa assicura che i solidi abbiano strutture molecolari rigidamente organizzate, e un cristallo ne è il caso più semplice. Ma i cristalli sono strutturalmente monotoni: i loro atomi sono disposti su una griglia tridimensionale regolare. Se conosciamo la posizione di tutti gli atomi in un’unità minima di cristallo, sapremo dove si trovano tutti gli altri atomi dell’intero cristallo. E’un po’un’esagerazione, poiché vi possono essere difetti complessi. Il punto però è chiaro: i cristalli possiedono strutture molto regolari, e dunque le loro differenti parti diranno in un certo senso tutte la stessa cosa. […] Schrödinger tradusse l’idea del «dire» nell’idea del «codificare».»6 Compiuto quel salto, però, un cristallo regolare non può «codificare» molta «informazione» poiché quest’ultima è già contenuta interamente nella cellula unitaria. Così, se i solidi hanno l’ordine richiesto ma i solidi periodici come i cristalli sono troppo regolari, l’attenzione del grande fisico si concentra allora sui solidi aperiodici: «Una piccola molecola potrebbe dirsi «il germe di un solido». Prendendo le mosse da un tale piccolo germe solido, sembrano esservi due diversi modi di fabbricare assiemi di atomi sempre più vasti. Uno è quello relativamente monotono di ripetere all’infinito la stessa struttura nelle tre direzioni. Questo è quello che si realizza nell’accrescimento dei cristalli. Una volta che la periodicità è stabilita non vi è un limite definito alle dimensioni dell’aggregato. L’altro modo è quello di costruire un aggregato sempre più esteso, senza ricorrere al banale espediente della ripetizione. Questo è il caso delle molecole organiche via via più complicate, nelle quali ogni atomo ed ogni gruppo di atomi ha una funzione particolare, non interamente equivalente a quella di molti altri (come avviene in una struttura periodica). Potremmo, in modo proprio, chiamare una tale struttura un cristallo o solido aperiodico ed esprimere la nostra ipotesi con le parole: noi riteniamo che un gene, o forse l’intera fibra cromosomica, sia un solido aperiodico.»7 La forma dell’aperiodicità, inoltre, conterrà una sorta di codice microscopico che in qualche modo controlla lo sviluppo dell’organismo: «Ci siamo spesso chiesti come mai questa insignificante particella di materia, il nucleo dell’uovo fecondato, possa contenere tutto un elaborato codice che riguarda tutto il futuro sviluppo dell’organismo. Una ben ordinata associazione di atomi dotata di sufficiente stabilità per mantenere il suo ordine in permanenza, sembra essere l’unica struttura materiale concepibile, che offra una varietà di possibili riordinamenti (isomerici) sufficientemente grande da racchiudere un complicato sistema di «predeterminazioni» entro un volume spaziale piccolo. Infatti, non è necessario che il numero di atomi in una struttura di questo genere sia molto grande, per dar luogo ad un numero di possibili ordinamenti diversi, praticamente illimitato. Considerate a titolo d’esempio, il Codice Morse. I due diversi segni, il punto e la linea, in gruppi ben ordinati di non più di quattro, permettono di ottenere una trentina di differenti specificazioni. Ora, se vi permettete l’uso di un terzo segno, oltre al punto e alla linea e fate uso di gruppi di non più che dieci segni, potete formare 88. 572 differenti lettere; con cinque segni e gruppi fino a venticinque, il numero è 372. 529. 029. 846. 191. 405. […] Naturalmente, nel caso reale, è chiaro che non ogni disposizione del gruppo di atomi rappresenterà una possibile molecola; inoltre, la questione non è quella di adottare un codice arbitrario, poiché il codice stesso deve essere il fattore operante che porta innanzi lo sviluppo. Ma, d’altra parte, il numero da noi scelto nell’esempio […] è ancora molto piccolo e abbiamo inoltre tenuto conto soltanto della semplice disposizione dei segni lungo una linea. Ciò che desideriamo porre in rilievo è soltanto il fatto che con il modello molecolare di un gene non è più inconcepibile che il codice in miniatura venga esattamente a corrispondere ad un complicatissimo e specificato piano di sviluppo ed in qualche modo contenga i mezzi per realizzarlo.»8 Il carattere quantistico del solido aperiodico sta a significare che si verificheranno piccoli cambiamenti discreti: le mutazioni. Infine, la selezione naturale, agli occhi del grande fisico, operando su questi piccoli cambiamenti discreti, selezionerà le mutazioni favorevoli secondo il modello divisato da Darwin: «Concesso che si debbano spiegare le rare mutazioni spontanee per mezzo delle fluttuazioni casuali dell’agitazione termica, non dobbiamo troppo stupirci del fatto che la natura sia riuscita a fare una così oculata scelta dei valori di soglia da rendere le mutazioni un evento raro. Infatti siamo arrivati precedentemente alla conclusione che mutazioni frequenti sono dannose all’evoluzione. Individui che, per mutazione, acquistano una configurazione genica di insufficiente stabilità avranno poca probabilità di vedere la loro discendenza, «ultraradicale» e rapidamente mutante, sopravvivere a lungo. La specie si libererà di essi e presceglierà così, per selezione naturale, dei geni stabili.»9 Alla luce di quanto detto sinora, dunque, Kauffman così scrive: «A cinquant’anni di distanza, trovo che il ragionamento di Schrödinger sia affascinante e brillante. In un colpo solo, egli concepì quella che nel 1953 sarebbe diventata la chiarificazione della struttura della doppia elica del DNA da parte di James Watson e di Francis Crick, con una considerazione nel loro articolo originale che, come è noto, è stata minimizzata: cioè che la struttura del DNA suggerisce il suo modo di replicarsi e il suo modo di codificare l’informazione genetica. A cinquant’anni di distanza sappiamo moltissime più cose. […] Ci siamo avvicinati al sogno di Schrödinger. Ma siamo anche più vicini a rispondere alla domanda «che cos’è la vita?» La risposta, quasi certamente, è no. Io non sono nella condizione di affermare così su due piedi perché lo penso, ma posso abbozzare una spiegazione. Esplorazioni Evolutive è la ricerca di una risposta. […] I sentieri lungo cui ho proceduto con passo malfermo, intravedendo una possibile terra inesplorata, mi sembra meritino davvero una presentazione e una considerazione serie. Con mio grande stupore, la storia che qui si dispiegherà suggerisce una risposta nuova alla domanda «che cos’è la vita?» Risposta di cui non mi aspettavo nemmeno un abbozzo e ancora mi sorprendo per essere stato guidato verso queste direzioni inattese. Una direzione suggerisce che una risposta potrebbe richiedere un cambiamento fondamentale nel modo in cui pratichiamo la scienza fin dai tempi di Newton. La vita sta facendo qualcosa di assai più ricco di tutti i nostri possibili sogni, qualcosa di letteralmente incalcolabile. Quale è il ruolo di una legge se, come abbiamo accennato, le variabili e lo spazio delle configurazioni di una biosfera, o magari di un universo, non possono essere specificati? Eppure, io credo che esistano leggi. E se queste mie meditazioni sono vere, allora è la scienza in sé che dobbiamo ripensare.»10 Siamo, dunque, di fronte ad un libro di maturazione intellettuale ed umana, ovvero al compimento di un lungo percorso che ha condotto il grande biochimico verso il nucleo dell’attuale teoria della complessità biologica: l’agente autonomo, ovvero l’unità di base di una biologia generale indipendente dal supporto, definito come «un sistema auto-riproduttivo capace di eseguire almeno un ciclo di lavoro termodinamico.»11 Si consideri un batterio che nuota controcorrente in un gradiente di glucosio sfruttando il suo motore flagellare rotativo. Se ci si domanda cosa effettivamente stia facendo, è possibile rispondere senza esitazione che «sta andando a procurarsi da mangiare». Ciò, agli occhi di Kauffman, significa che, pur senza attribuirgli una coscienza o una finalità cosciente, risulta possibile concepire il batterio come «agente a proprio vantaggio in un ambiente»: esso, infatti, sta nuotando controcorrente per ottenere il glucosio di cui necessita. Ebbene, quei batteri che raggiungono effettivamente il glucosio, o il suo equivalente, possono sopravvivere con più probabilità rispetto a quelli che non riescono ad usufruire dello stratagemma motorio flagellare; la selezione naturale, pertanto, li selezionerà positivamente. «Un agente autonomo è un sistema fisico come lo è il batterio, che può agire a proprio vantaggio in un ambiente. Tutte le cellule dotate di vita autonoma e gli organismi sono chiaramente agenti autonomi. Il carattere quasi familiare, ma del tutto straordinario, degli agenti autonomi — Escherichia coli, e parameci, cellule del lievito e alghe, spugne e platelminti, anellidi e ognuno di noi — è la capacità che abbiamo di manipolare ogni giorno il mondo circostante: noi nuotiamo, strisciamo, ci attorcigliamo, costruiamo, ci nascondiamo, annusiamo e ghermiamo. […] Il nostro batterio con il suo motore rotativo flagellare che nuota controcorrente verso la sua cena è, come puro fatto, un sistema molecolare auto-riproduttivo che segue uno o più cicli di lavoro termodinamici. E lo è il paramecio che insegue il batterio augurandosi la propria, di cena. E altrettanto lo è il dinoflagellato a caccia del paramecio che tende un agguato al batterio. […] Ci vorrà del tempo per esplorare a fondo questa definizione. Spiegarne minutamente le implicazioni rivela molte cose che nemmeno lontanamente avevo previsto. Una prima intuizione è che un agente autonomo deve essere allontanato dall’equilibrio termodinamico perché i cicli di lavoro non possono verificarsi all’equilibrio. Il concetto di agente è dunque di per sé un concetto di non equilibrio. In esordio, è anche chiaro che questo nuovo concetto di agente autonomo non è contenuto nella risposta di Schrödinger. Il suo brillante salto concettuale ai solidi aperiodici codificanti l’organismo, che spiegò le ali alla biologia di metà Novecento, sembra essere soltanto lo sprazzo di una storia ben più grande.»12 A dire il vero, a questo stadio la definizione provvisoria di Kauffman non è circolare, poiché «riproduce se stesso» e «ciclo di lavoro» li possiamo definire indipendentemente. Ma quando, nei prossimi paragrafi, scaveremo più a fondo nel concetto di agente autonomo, sorgeranno definizioni circolari relative a «lavoro», «lavoro propagante», «vincoli», «organizzazione propagante» e «compito». L’obiettivo del grande studioso consiste, dunque, nel mettere in luce come il circolo definizionale sia virtuoso e quindi foriero di una nuova comprensione del concetto di «organizzazione» in sé. In breve, sviscerare questa definizione ci condurrà in un territorio misterioso. In parte, l’enigma riguarda la risposta ad un interrogativo preciso: quale è la forma matematica opportuna per descrivere un agente autonomo? Si tratta di un numero, e quindi di uno scalare? Di un elenco di numeri, e quindi di un vettore? Di un tensore? Secondo Kauffman la risposta è negativa poiché quello di agente autonomo è un concetto relazionale. Le cellule viventi, infatti, appaiono ineluttabilmente come totalità organizzate. Una cellula non è un singolo tipo di molecola che replica se stessa, bensì una ricca trama di eventi molecolari mediante i quali quella totalità propaga «riduzioni approssimative di se stessa». Esiste poi il metabolismo, vi è l’attività di comprensione, traduzione ed innovazione di diversi linguaggi che interagiscono incessantemente tra loro come, ad esempio, quello del DNA, quello relativo ai vari RNA ed infine quello delle proteine dove il codice stesso è mediato dagli enzimi di attivazione (aminoaciltrasferasi) che caricano sulle opportune molecole di tRNA gli aminoacidi corretti al fine di tradurre il codice, un codice, vale a dire, capace di creare gli enzimi aminoaciltrasferasi stessi. Nella cellula, inoltre, c’è il «fruscio» di energia che fluisce simultaneamente dentro, e attraverso, quelle che potremmo definire come vie labirintiche principali e secondarie che collegano la degradazione di fonti a elevata energia alla sintesi di prodotti che richiedono l’aggiunta di energia libera. «Una cellula vivente è, a un esame, […] un sistema collettivamente auto-catalitico. Nessuna specie molecolare da sola produce copie di se stessa. Che cos’è questa totalità? E poi, l’olismo è necessario? Di che cosa necessita quell’intricata trama della rete molecolare che appare come l’anima stessa di una cellula? In qualsiasi teoria dei geni nudi replicanti, come la concezione standard di un polinucleotide replicante, sia esso senza enzimi oppure una RNA polimerasi alla Szostak che bisbiglia felicemente tra sé e sé, «AAUGGCCAAUCCCC… .», la virtù è nell’apparente semplicità dei primi passi della vita. Fate sì che la nuda molecola capace di replicare se stessa esista e altrove prenderà forma una biosfera. Rimane però irrisolta la questione dell’origine della trama olistica di una cellula e, faccenda più critica, se la rete è essenziale. Mi spiego. I sistemi viventi autonomi più semplici, i pleuromonia (PPLO), una specie batterica semplificata che infesta i polmoni delle pecore, già possiedono una membrana, un DNA, un codice, forse trecento geni assortiti, un congegno per la trascrizione e la traduzione, un metabolismo e un collegamento dei flussi di energia verso e attraverso l’interno. Un pregio della teoria del gene nudo è l’origine semplice della vita. Un suo difetto è che non sa rispondere alla domanda: perché le cellule libere hanno una complessità apparente minima? Suppongo che una complessità minima sia reale. Assemblare una varietà sufficiente di funzioni molecolari che lavorino di concerto dando vita a una creatura essenziale, capace di riprodursi e di evolvere verso una complessità superiore, potrebbe richiedere una complessità minima. Evolversi da un simile antenato comune verso la complessità crescente di una biosfera potrebbe richiedere una varietà di funzionalità iniziali. Tant’è che persino il matematico J. von Neumann ritenne anni addietro che una complessità minima sia necessaria per creare un sistema capace di riprodursi e di arricchire quella complessità.»13 La forza della teoria degli insiemi auto-catalitici, così come divisata da Kauffman, risiede proprio nel fatto di condurre naturalmente ad attenderci un ineluttabile olismo di complessità minima: «In un insieme autocatalitico tutte le molecole la cui formazione deve essere catalizzata trovano all’interno dell’insieme medesimo la specie molecolare che catalizza le reazioni della loro formazione. Tutte le funzioni catalitiche vengono svolte di modo che l’insieme sia collettivamente autocatalitico. Non si tratta di un olismo mistico, ma di una proprietà reale, osservabile, di un insieme di molecole collettivamente autocatalitico. La nuova radicale concezione della vita cui aderisco è che la vita si fondi su un insieme di molecole collettivamente autocatalitico, e non sulla replicazione a stampo in sé. […] Da quando Watson e Crick hanno scoperto la simmetria dello stampo del DNA a doppia catena, tutti hanno compreso come una molecola copia se stessa. Ma le proteine? Questa classe di molecole si ripiega in compatte strutture tridimensionali, l’emoglobina per esempio. Come potrebbe un meccanismo copiare quella struttura? Ebbene, risulta difficile se lo scopo è copiare la struttura dell’emoglobina in un unico passaggio. Ma se vengono saldate sottosequenze della proteina e si costruisce l’intera sequenza da suoi frammenti? E che dire della possibilità concettuale di un insieme collettivamente autocatalitico basato interamente su proteine che catalizzano reciprocamente la propria formazione attraverso una qualche stima di reazioni di saldatura?»14

M. R. Ghadiri e colleghi hanno realizzato la prima stupefacente scoperta in questo senso. Nell’articolo del 1996 dal titolo: A self-Replicating Peptide, infatti, questi chimici operanti allo Scripps Research Institute hanno pubblicato il primo esempio di proteina auto-riproduttiva. L’esperimento è stato il seguente. Sia A una sequenza lunga 32 aminoacidi la quale catalizza la formazione di una copia di se stessa allineando e saldando due propri frammenti. La sequenza di 32 aminoacidi si ripiega in un Ü-elica, che a sua volta si ripiega su se stessa creando una struttura a superelica. Ghadiri ha congetturato che, ripiegandosi l’Ü-elica su se stessa e legandosi perciò a se stessa, la medesima sequenza poteva legare due propri frammenti. Per fornire l’energia utile a guidare la formazione del legame peptidico tra i frammenti adiacenti, lo studioso è ricorso ad uno stratagemma chimico: ha fatto sì che un primo frammento fosse elettrofilo (E) e un secondo nucleofilo (N). Il grande chimico, inoltre, ha definito templato (T) il peptide a 32 aminoacidi. A questo punto abbiamo che T allinea E ed N adiacenti a se stesso e catalizza la saldatura di E e di N, creando una seconda copia di T.15 L’esperimento è riuscito brillantemente. Ghadiri e colleghi hanno dimostrato che la vita potrebbe essere basata solo su proteine. Ebbene, lo stesso gruppo di studiosi, in un lavoro successivo ha creato un «brodo» composto da peptidi T, E ed N simili. Qui, un templato specifico T1 poteva catalizzare non solo la saldatura di E1 e di N1 formando così una seconda coppia di T1, bensì poteva anche catalizzare la saldatura di E2 e di N2 per formare T2. A sua volta, T2 poteva agire non solo su E2 ed N2, ma anche su N1 ed E1, o su altre combinazioni di frammenti E ed N.16 Alla luce di quanto detto sinora, dunque, Kauffman così scrive: «Riassumendo, tra le possibilità già dimostrate vi sono reti di reazioni di modesta complessità, costituite da peptidi auto-catalitici e a catalisi incrociata. Per esempio A potrebbe catalizzare la propria formazione come pure la formazione di B, mentre B potrebbe catalizzare la propria, di formazione, e anche quella di A, in una struttura catalitica che nel 1977 il premio Nobel Manfred Eigen ha definito con Peter Schuster iperciclo. Ghadiri e collaboratori hanno pubblicato il primo esempio di iperciclo peptidico. Una rete collettivamente autocatalitica, dove A e B catalizzano mutuamente la propria formazione, ma né A né B lo fanno direttamente, non è ancora stata ottenuta, ma lo sarà presumibilmente in un futuro prossimo. […] Gli esperimenti di Ghadiri aprono la strada al lavoro su sistemi molecolari auto-riproduttivi in reti complesse di reazioni chimiche dove i substrati e i prodotti sono tutti peptidi. Il campo della diversità molecolare, vale a dire la generazione di trilioni di sequenze più o meno casuali di DNA, di RNA e di proteine, significa che possiamo creare reti di reazioni complesse a volontà. Poiché DNA, RNA e proteine possono tutti legarsi a, e presumibilmente anche a catalizzare, reazioni che coinvolgono altre classi di polimeri, nulla impedisce di andare a caccia di sistemi auto-catalitici e collettivamente autocatalitici di DNA, di RNA e di specie proteiche, tutti insieme. […] Se Ghadiri può costruire un peptide autocatalitico o una rete di reazioni peptidiche collettivamente autocatalitica, non possono tali sistemi assemblarsi per caso? Forse che la vita è prefigurata nelle leggi di tutto questo? Io intendo proporre una concezione ancora allo stadio di teoria, secondo cui la vita, come le rozze bestie di Yeats, striscia verso Betlemme per essere partorita — nascita virginale di tutti noi. Desidero sostenere che la vita è una proprietà attesa, emergente, di reti complesse di reazioni chimiche. In condizioni piuttosto generali, al crescere della diversità di specie molecolari in un sistema di reazioni, viene attraversata una transizione di fase, superata la quale diventa pressoché inevitabile la formazione di insiemi di molecole collettivamente autocatalitici. Se così, siamo figli della diversità molecolare, figli delle stelle di seconda generazione.»17 Secondo questa visione dunque la vita è copiosa, è emergente, è attesa, un fenomeno, vale a dire, che si dispiega misteriosamente all’interno di un universo creativo. Se tale prospettiva è corretta, quindi, l’emergenza di insiemi autocatalitici non è difficile, ma relativamente facile. Agli occhi di Kauffman, infatti, è necessario un modo per assemblare varietà di RNA, di proteine o di altri substrati (o catalizzatori potenziali) per tenerli in prossimità affinché non si allontanino per diffusione da un contatto reciproco efficace, e che, infine, il caso ed i numeri compiano la «magia». Tuttavia, se in A casa nell’universo il grande studioso riteneva che la chiusura auto-catalitica fosse la proprietà fondamentale della vita anche perché permetteva di spiegare la misteriosa evoluzione dalle strutture pre-biotiche alle cellule evolute (con DNA, RNA e proteine), in Esplorazioni Evolutive, invece, la sua posizione appare molto più cauta. «[…] La vita è una proprietà emergente attesa di reti complesse di reazioni chimiche. Bisogna tuttavia essere prudenti. In primo luogo, dobbiamo sapere se il nostro calcolo approssimativo su una semplice pcat è robusto. Parrebbe di si. Per una serie di ipotesi circa la distribuzione di attività catalitiche tra insiemi di molecole, e una serie di ipotesi sulla struttura statistica dei grafi delle reazioni, quando si manifesta una diversità critica gli insiemi autocatalitici tendono a emergere. Ma andiamoci cauti: è necessario ulteriore lavoro teorico e, soprattutto in questa fase, molto lavoro sperimentale ancora. In secondo luogo anche nel caso che la teoria precedente fosse vera, non abbiamo ancora parlato dell’emergenza di un metabolismo che risolva il problema termodinamico: cioè il problema di guidare la sintesi rapida di specie molecolari sopra le rispettive concentrazioni all’equilibrio collegando tale sintesi alla liberazione di energia attraverso la demolizione di altre specie chimiche. Le reazioni chimiche che liberano energia vengono definite esoergoniche e, viceversa, endoergoniche quelle che richiedono energia chimica. Le cellule viventi connettono reazioni endoergoniche e reazioni esoergoniche al fine di produrre concentrazioni elevate di molte specie molecolari. […] Il legame tra reazioni esoergoniche ed endoergoniche si rivela infatti essenziale nella definizione di agente autonomo, quella misteriosa concentrazione di materia, di energia, di informazione, e di quel qualcosa in più che chiamiamo vita. In breve, io sosterrò che auto-catalisi e riproduzione molecolare sono si necessarie per la vita, ma non ancora sufficienti. La vita possiede realtà più profonde, e ancora più misteriose, di quell’autocatalisi che siamo andati esplorando […] .»18 Ebbene, nel tentativo di sondare l’essenza misteriosa della vita, dunque, Kauffman cerca ora di esplorare più in profondità la circolarità insita nella definizione stessa di agente autonomo, prendendo le mosse dalla pietra angolare della termodinamica: il ciclo di Carnot.

Carnot, nel volume dal titolo: Riflessioni sulla potenza motrice del fuoco, si dedicò alla comprensione degli elementi fondamentali dell’estrazione di lavoro meccanico da fonti di energia termica. Il risultato dei suoi sforzi fu l’analisi di un dispositivo ideale per ricavare lavoro meccanico dal calore, il ciclo di Carnot.19

Figura 1

Image

La figura 1 illustra gli elementi essenziali della macchina ideale di Carnot, la quale è costituita da due serbatoi di calore di cui uno più caldo dell’altro, T1 > T2. Tra i due serbatoi è collocato un cilindro contenente un pistone. Lo spazio tra la parte superiore del pistone e la testa del cilindro è riempito da un gas che «compie lavoro ideale», che può essere compresso e può espandersi. Un gas reale (e a maggior ragione un gas ideale) una volta compresso si riscalda e, viceversa, una volta espanso si raffredda. Kauffman modifica la macchina di Carnot per un aspetto centrale il quale rende esplicito, senza alterarlo, un carattere importante dell’attività reale della macchina stessa: egli, infatti, attacca una manopola al cilindro. Sarà un soggetto esterno, quindi, a far funzionare la macchina. Il ciclo di Carnot inizia con il pistone compresso in alto, quasi alla sommità del cilindro, e con il gas compresso e caldo, come la temperatura elevata T1. Se si tira la manopola, quest’ultima farà scivolare il cilindro (privo di attrito) a contatto con il serbatoio a temperatura elevata T1. A questo punto, allora, se si lascia la manopola, il gas si espande nel cilindro spingendo così il pistone in basso, lontano dalla testa del cilindro. Questa è la prima parte della corsa di lavoro della macchina di Carnot. Quando ha inizio la corsa di lavoro il gas si espande e comincia a raffreddarsi. Tuttavia, poiché il cilindro è a contatto con il serbatoio termico caldo, il calore fluisce nel cilindro da T1 e mantiene il gas praticamente alla temperatura costante T1. In realtà, se si opera sulla macchina di Carnot con adeguata lentezza, la temperatura rimane costante: un’operazione lenta viene definita reversibile. Se, invece, si opera sulla macchina più rapidamente (irreversibilmente) la temperatura viene mantenuta pressoché costante lungo questa fase della corsa di lavoro che viene definita «fase di espansione isotermica» del ciclo di Carnot. Kauffman raffigura lo stato del sistema or ora accennato in un sistema di coordinate cartesiane dove l’asse delle ascisse corrisponde al volume del gas e l’asse delle ordinate alla sua pressione (figura 2).

Figura 2

Image

Il ciclo ha avuto inizio con il pistone prossimo all’estremità del cilindro, con il gas caldo e compresso. Quando avviene la fase di espansione la pressione diminuisce leggermente mentre il volume aumenta sensibilmente. Il segmento corrispondente del ciclo collega la posizione di partenza (posizione1), alla posizione 2 per mezzo di un segmento che rappresenta i valori simultanei di volume e pressione durante la fase di espansione isotermica della corsa di lavoro. La seconda fase della corsa di lavoro, invece, ha inizio spingendo la manopola e allontanando il cilindro dal serbatoio caldo T1 per collocarlo in una posizione intermedia tra i due serbatoi senza che venga a contatto con nessuno dei due. Se si lascia improvvisamente la manopola, il gas continuerà ad espandersi spingendo in basso il pistone allontanandolo dalla testa del cilindro. Tuttavia, dato che il cilindro non è a contatto con T1 e il gas si sta espandendo divenendo altresì percettibilmente più freddo, la pressione diminuirà notevolmente mentre il volume aumenterà leggermente. Questa fase della corsa di lavoro viene definita da Carnot espansione adiabatica. La fase di espansione adiabatica sposta il sistema dalla fase 2 alla fase 3, la fase finale della corsa di lavoro, ovvero un punto in cui la pressione raggiunge il livello minimo mentre il volume del gas è al punto massimo del ciclo. Per far ritornare la macchina di Carnot allo stato iniziale1 così che il gas possa nuovamente espandersi e compiere lavoro meccanico sul pistone, deve essere svolto del lavoro sul motore per riportare il pistone alla sua posizione vicina alla testa del cilindro ricomprimendo e scaldando di nuovo il gas in modo tale che i suoi valori di temperatura e pressione (il suo stato) corrispondano allo stato1 (figura 2). «La macchina di Carnot, come tutte le macchine termiche, invece di ripercorrere la via della corsa di lavoro ricorre ad un semplice stratagemma. Sarete voi a farlo: alla fase3, la terminazione della corsa di lavoro, afferrate la manopola, spingendo così il cilindro a contatto con il serbatoio a bassa temperatura T2. Voi infatti avete disposto le cose in modo che alla fine della corsa di lavoro il gas sia anch’esso alla temperatura più bassa T2. Adesso che il cilindro è a contatto con T2, girate attorno alla base del cilindro, dove una robusta manopola è attaccata al pistone e si protende oltre la base del cilindro. Spingete la manopola, che spingerà il pistone verso l’alto nel cilindro e comprimerà così il gas. Mentre effettuate questo lavoro sul pistone, il gas in fase di compressione tende a scaldarsi. Ma, grazie al contatto con il serbatoio a bassa temperatura, il calore generato dalla compressione nel gas si diffonde nel serbatoio freddo T2, mantenendo il gas solo leggermente più caldo di T2. Così facendo, il volume diminuirà apprezzabilmente, mentre la pressione aumenterà leggermente. Il punto chiave dello stratagemma è che è necessario meno lavoro per comprimere un gas che rimane freddo che non un gas che si riscalda. Poiché il gas viene mantenuto ad una temperatura pressoché costante T2, questa fase della corsa di compressione viene definita compressione isotermica, e sposta il sistema nel suo spazio degli stati pressione-volume dalla posizione 3 alla posizione 4. Alla fine della fase di compressione isotermica, siete ancora voi a entrare in scena: tirate la manopola, allontanando il cilindro dal contatto con il serbatoio freddo T2 in una posizione tra T2 e T1, senza che esso sia a contatto né con l’uno né con l’altro. A quel punto, spingete un’altra volta la manopola collegata al pistone, comprimendo ulteriormente il gas. A causa della compressione del gas e al fatto che non è in contatto con il serbatoio T1 freddo, il gas si riscalda e la pressione aumenta sensibilmente mentre il volume diminuisce appena, e intanto il gas viene compresso finché si raggiunge lo stato iniziale del gas compresso caldo, la fase1. Adesso, il ciclo è completato. […] Ho sottolineato il ruolo vostro e della manopola in questo cammino attraverso il ciclo. È chiaro che in una macchina reale il ruolo della manopola è svolto da vari ingranaggi, bielle, scappamenti e altri congegni meccanici che rivestono un ruolo essenziale: la manopola e voi, oppure gli ingranaggi, le bielle e gli scappamenti, organizzano letteralmente il flusso del processo ricorrente. Ritornerò su questa organizzazione del flusso del processo in una macchina o in un agente autonomo. Il ciclo di Carnot è coinvolto nel rilascio organizzato di energia termica per ottenere lavoro meccanico ricorrente. L’organizzazione del lavoro è essenziale — e sarà centrale — per riflettere su quanto accade in un agente autonomo. Infatti, a noi serve anche un modo per caratterizzare l’organizzazione di processi reali nel mondo in non equilibrio. Non credo che disponiamo già di un concetto adeguato di organizzazione.»20 Il ciclo di Carnot, dunque, opera in un ciclo, come fanno un motore a vapore, un motore a benzina ed un motore elettrico, poiché, completato un ciclo, il sistema totale viene riportato allo stato iniziale dell’avvio del ciclo: l’organizzazione del processo, quindi, ritorna alla configurazione iniziale da cui il sistema potrà eseguire ancora una volta un ciclo. «[…] L’organizzazione ciclica dei processi nella macchina di Carnot, in quella a vapore, a gas, oppure in quella elettrica, realizza l’organizzazione richiesta proprio perché il sistema opera come un processo ciclico.»21

Una seconda questione su cui, agli occhi di Kauffman, è opportuno riflettere riguarda un aspetto ben conosciuto della macchina di Carnot. «Se la sequenza di stati viene percorsa in direzione contraria, così che la macchina venga attivata dallo stadio 1 allo stadio 4 allo stadio 3, e poi al 2 e di qui all’1, la macchina di Carnot non si comporta affatto da pompa, ma piuttosto da frigorifero. Attivata in direzione contraria, la macchina di Carnot usa il lavoro meccanico per pompare calore dal serbatoio freddo T2 al serbatoio caldo T1, raffreddando T2. […] Gli aspetti che meritano di essere considerati sono quindi due: il primo è che la stessa macchina, la macchina di Carnot, può essere sia pompa che frigorifero. Dipende dalla sequenza delle operazioni. […] Sostanzialmente, la stessa macchina può eseguire due funzioni, o compiti, molto differenti: pompare in un caso e raffreddare nell’altro.»22 Il terzo punto individuato da Kauffman concerne processi spontanei e processi non spontanei. Sono stati necessari più di cinquant’anni dagli studi di Carnot per iniziare a comprendere veramente la termodinamica e per inventare la meccanica statistica che collega termodinamica e meccanica newtoniana. Alcuni processi si verificano spontaneamente mentre altri processi plausibili no. Per esempio, se un gas caldo viene messo a contatto con un gas freddo, i due, a tempo debito, avranno la stessa temperatura: il calore, infatti, si diffonde spontaneamente dall’oggetto caldo a quello freddo, raffreddando il primo e scaldando il secondo. In meccanica statistica la concezione comune di «caldo» corrisponde ad atomi in movimento rapido, ovvero con la nozione di energia cinetica elevata. Quando questi atomi interagiscono con atomi più lenti le collisioni trasferiscono energia cinetica a questi ultimi accelerandoli e provocando così il rallentamento dei primi. Con il passare del tempo gli atomi appartenenti ai due insiemi arriveranno ad avere la stessa distribuzione statistica dei moti e quindi la stessa energia cinetica, vale a dire la stessa temperatura. La seconda legge della termodinamica, come tutti sanno, stabilisce che l’entropia di un sistema è costante oppure cresce. L’interpretazione moderna dell’entropia può essere formulata grossomodo ricorrendo al concetto di spazio delle fasi 6n-dimensionali. Si consideri un sistema chiuso e isolato, per esempio un gas ideale in un termos. Si ipotizzi, inoltre, che nel termos vi siano n particelle di gas . Ebbene, ogni particella sarà in movimento nello spazio tridimensionale reale; allora, sarà possibile scegliere un sistema di coordinate tridimensionali arbitrario con lunghezza, larghezza e altezza (x, y, z). E risulta possibile anche rilevare la posizione di ogni particolare particella nel termos in ciascun istante per ciascuna delle tre coordinate di posizione. Ogni particella, oltre ad avere una posizione, potrebbe essere in movimento, potrebbe avere una velocità e una quantità di moto associate a qualche direzione nel termos. Ricorrendo alle regole della composizione vettoriale delle forze di Newton è possibile scomporre il movimento della particella reale nei suoi movimenti nelle direzioni x, y e z. «La quantità di moto in ciascuna di queste direzioni è proprio la massa della particella moltiplicata per la sua velocità in quella direzione. La regola della composizione vettoriale di Newton afferma che possiamo risalire al moto della particella iniziale costruendo l’evidente parallelogramma che ricompone di nuovo i vettori della velocità o della quantità di moto sugli assi x, y, z. Allora, di ciascuna particella, possiamo rappresentare con 6 numeri la posizione e la quantità di moto in tre direzioni dello spazio. Nel termos ci sono n particelle, e possiamo pertanto rappresentare la loro posizione e quantità di moto effettiva in ogni istante con 6n numeri. Combinazioni differenti di posizioni e velocità corrispondono adesso ad insiemi differenti di 6n numeri. E, se le n particelle nel termos si urtano e si scambiano le quantità di moto, rimbalzando in nuove combinazioni di direzioni con nuove combinazioni di velocità in accordo con le tre leggi del moto di Newton, i 6n numeri che rappresentano il sistema in ogni istante cambieranno nel tempo attraverso una successione di 6n numeri. Se consideriamo tutti i possibili valori di posizione e di velocità delle n particelle nel termos, quell’insieme di valori possibili è lo spazio delle fasi 6n-dimensionale del nostro sistema.»23 Il sistema, quindi, inizia da qualche singola combinazione di 6n numeri, cioè da un singolo stato nello spazio delle fasi. Nel tempo, al variare delle posizioni e delle quantità di moto, i 6n numeri variano e il sistema fluisce verso una traiettoria nello spazio delle fasi. Alla luce di quanto detto sinora, dunque, Kauffman così scrive: «La seconda legge, nella sua interpretazione moderna, è semplicemente l’enunciato secondo cui un sistema termodinamico isolato tenderà a fluire lontano da macrostati improbabili — corrispondenti a pochissimi dei nostri cubetti microscopici 6n-dimensionali — e fluirà e trascorrerà la maggior parte del tempo nel macrostato all’equilibrio per l’ottima ragione che quel macrostato corrisponde ad un numero enorme di piccoli cubi 6n nell’intero spazio delle fasi 6n-dimensionale. Nella seconda legge, l’aumento di entropia è semplicemente la tendenza dei sistemi a fluire da macrostati meno probabili a macrostati più probabili.»24 A partire dall’Ottocento, grazie al decisivo contributo di Boltzmann, il concetto fisico di entropia di un macro stato viene concepito come proporzionale al logaritmo del numero di cubetti 6n-dimensionali che corrispondono a quel macrostato. L’aumento di entropia in processi spontanei è allora la tendenza a fluire da macrostati costituiti da un numero esiguo di cubi 6n-dimensionali, o microstati, a macrostati costituiti da moltissimi microstati. Stando così le cose, dunque, il passo successivo compiuto da Kauffman nella riflessione sugli agenti autonomi consiste nel fatto di considerare il concetto di «spazio delle attività catalitiche» ed il carattere degli «insiemi auto-catalitici» nel contesto dello spazio delle attività catalitiche. «Dovremo considerare uno spazio delle forme limitato con valori massimi e minimi per ciascun asse. Una forma è un punto nello spazio delle forme e dunque un carattere molecolare su un antigene virale, un epitopo, è un punto nello spazio delle forme. Un anticorpo potrebbe legarsi a quell’epitopo e a una famiglia di forme simili che riempiono una sfera nello spazio delle forme. […] Molecole molto differenti possono avere la stessa forma, e allora l’endorfina e la morfina si legheranno allo stesso recettore, il recettore dell’endorfina. Un numero finito di palle ricoprirà lo spazio delle forme e un repertorio immunitario, forse nell’ordine di un centinaio di milioni di anticorpi, potrebbe benissimo ricoprire lo spazio delle forme.»25 Secondo Kauffman lo spazio delle attività catalitiche si limita ad applicare il concetto di spazio delle forme alla catalisi. Un punto nello spazio delle attività catalitiche rappresenta dunque un’attività catalitica. «Una certa reazione chimica costituisce un’attività catalitica. Come nello spazio delle forme, reazioni simili costituiscono attività catalitiche simili. Come nello spazio delle forme, reazioni differenti possono costituire essenzialmente la stessa attività catalitica. Un enzima copre una certa palla nello spazio delle attività catalitiche, che comprende l’insieme di reazioni che essa può catalizzare. E, come rilevato in precedenza e in accordo alla teoria dello stato di transizione, un’attività catalitica corrisponde ad un catalizzatore che si lega alla configurazione molecolare distorta, e perciò a elevata energia, corrispondente allo stato di transizione di una reazione con elevata affinità e che lega gli stati del substrato e del prodotto con affinità, in generale, inferiore.»26 E’quindi possibile domandarsi: in termini di spazio delle attività catalitiche, che cos’è un insieme collettivamente autocatalitico? Vediamo un esempio semplice. Due peptidi A e B formano un insieme collettivamente autocatalitico se A catalizza la formazione di B da due frammenti di B, e B catalizza la formazione di A da due frammenti di A. Si Considerino allora due palle nello spazio delle attività catalitiche: la prima palla, coperta da A, costituisce l’attività catalitica in cui due frammenti di B sono saldati per formare B; la seconda palla, coperta da B, costituisce l’attività catalitica nello spazio delle attività in cui due frammenti di A sono saldati e formano A. «Il primo carattere di un insieme collettivamente autocatalitico è quello che definisco chiusura catalitica. Ogni reazione che deve trovare un catalizzatore lo trova. La formazione di A richiede B e la formazione di B richiede A. È importante sottolineare che questa chiusura nello spazio delle attività catalitiche non è locale, perché non vi è una singola reazione in questo insieme collettivamente autocatalitico che costituisca in sé la chiusura in questione. Chiaramente, la chiusura catalitica è una proprietà del sistema nella sua totalità. Un secondo aspetto da sottolineare è che A e B, in quanto catalizzatori, non costituiscono in sé la chiusura in questione; A e B potrebbero catalizzare una varietà di reazioni. […] In breve la chiusura delle attività catalitiche richiede la specificazione delle attività catalitiche stesse insieme con i substrati specifici i cui prodotti, in questo caso A e B, costituiscono i catalizzatori veri e propri che eseguono le attività catalitiche in questione. La chiusura di un insieme autocatalitico e di un insieme di attività catalitiche manifesta una sorta di dualismo. Dal punto di vista delle molecole implicate, le attività catalitiche specifiche costituiscono le grandi vie di liberazione dell’energia chimica mediante cui il sistema molecolare riproduce se stesso. Le attività coordinano il flusso di atomi tra le molecole mediante cui l’insieme riforma se stesso. Dal punto di vista delle attività le specie molecolari riescono ad eseguire le attività ripetutamente, senza che ulteriori specie molecolari siano necessarie per eseguire le attività. Le molecole eseguono le attività, le attività coordinano, ovvero organizzano, i processi tra le molecole. […] L’organizzazione realizzata dalla chiusura delle attività catalitiche è simile all’organizzazione ottenuta dagli ingranaggi e dagli scappamenti di concerto al resto della macchina ideale di Carnot. Il flusso del processo è disposto in un tutto organizzato. Nel caso dell’insieme autocatalitico, quest’ultimo riproduce se stesso. Merita inoltre sottolineare che questa chiusura nello spazio delle attività catalitiche è un concetto nuovo che possiede un significato fisico reale. È un dato di fatto oggettivo se un sistema di reazioni fisico realizza o meno la chiusura catalitica; il precedente ipotetico sistema AB e qualsiasi cellula autonoma realizzano una chiusura catalitica.»27 Per giungere alla definizione provvisoria di agente autonomo precedentemente accennata, però, secondo Kauffman, occorre riflettere in modo ancora più approfondito su un preambolo: la distinzione, già rilevata, tra reazioni chimiche spontanee (esoergoniche) e non spontanee (endoergoniche). «Tutte le reazioni chimiche spontanee, se non sono accoppiate ad alcun’altra fonte di energia, sono esoergoniche. Per contro, se qualche altra fonte di energia libera viene accoppiata alla reazione, quest’ultima può essere spinta oltre l’equilibrio utilizzando parte della fonte di energia. Le reazioni che vengono spinte oltre l’equilibrio per aggiunta di energia libera sono definite endoergoniche. Perciò X potrebbe convertirsi in Y e questa reazione potrebbe essere accoppiata ad un’altra fonte di energia libera, così che la concentrazione di Y allo stato stazionario sia molto superiore a quella del rapporto normale tra X e Y all’equilibrio.»28

Nel ciclo di Carnot, come abbiamo ampiamente mostrato in precedenza, il completamento del ciclo vedeva coinvolto il sistema cilindro-pistone che eseguiva lavoro esoergonico sul mondo esterno durante la corsa di lavoro e vedeva poi il mondo esterno eseguire lavoro sul sistema cilindro-pistone nel momento in cui veniva esercitata una pressione sul pistone per comprimere il gas. «Il ciclo di Carnot collega fonti di energia meccanica e di energia termica in un ciclo. Una rete di reazioni chimiche con un ciclo dovrà collegare reazioni spontanee, esoergoniche, e reazioni non spontanee, endoergoniche, nell’analogo chimico di un ciclo. Al pari della macchina ciclica di Carnot, l’analogo chimico dovrà lavorare in un ciclo di stati, come il ciclo 1, 2, 3, 4, 1 del ciclo di Carnot. Inoltre, affinché il ciclo operi con una velocità finita, e quindi irreversibilmente, l’agente autonomo deve essere un sistema termodinamico aperto spinto da fonti esterne di materia o di energia — quindi cibo — e la spinta continua del sistema da parte di tale cibo mantiene il sistema lontano dall’equilibrio.»29 (Figura 3).

Figura 3

Image

Stando così le cose, dunque, in accordo con Kauffman, risulta possibile riconsiderare sotto questa luce il sistema autocatalitico di Ghadiri; la sequenza di 32 aminoacidi A che salda due frammenti, A’di quindici aminoacidi, e A? di 17 aminoacidi, per formare A. Questa reazione è puramente esoergonica, procede dai frammenti substrato A’e A? per formare la molecola prodotto A, e si approssima al rapporto di equilibrio substrati/prodotto. «Il sistema autocatalitico di Ghadiri è magnifico, ma puramente esoergonico: non produce un ciclo. In generale, sistemi autocatalitici e collettivamente autocatalitici possono essere puramente esoergonici. In qualsiasi caso del genere, non si realizza alcun ciclo. A questo punto, possiamo ritornare alla mia definizione buttata lì: un agente autonomo è un sistema riproduttivo che esegue almeno un ciclo di lavoro termodinamico. Quel batterio, remando contro il gradiente di glucosio, con il flagello che si dimena in cicli di lavoro, si danna per farlo, riproducendosi ed eseguendo uno o più cicli di lavoro. E lo fanno anche le cellule autonome e gli organismi. Noi, come puro fatto, colleghiamo processi spontanei e non spontanei in percorsi interattivi dai complessi intrecci, che attuano la riproduzione e i cicli di lavoro persistenti mediante cui agiamo sul mondo. I castori costruiscono davvero le dighe, eppure questi animali sono meri sistemi fisici. Tuttavia, l’esempio del peptide autocatalitico proposto da Reza Ghadiri non si dimostra all’altezza e nemmeno l’esamero autocatalitico di DNA di Günter von Kiedrowski o l’insieme collettivamente autocatalitico di due esameri di DNA. Tutti questi sistemi sono esclusivamente esoergonici e non viene eseguito alcun ciclo.»30 Una volta enunciata la definizione, dunque, il grande studioso americano prosegue la sua argomentazione ipotizzando la realizzazione di un agente autonomo molecolare (figura 4).

Figura 4

Image

Tale figura è costruita per connettersi con altri due sistemi molecolari, il sistema esoergonico autocatalitico sviluppato da G. von Kiedrowski basato sulla saldatura di due trimeri di DNA da parte del loro esamero complementare. Qui l’esamero è semplificato come 3’CCCGGG5’e i due trimeri complementari sono 5’GGG3’+ 5’CCC3’. Questa reazione, lasciata ai propri meccanismi, è esoergonica e, in presenza di trimeri in eccesso rispetto al rapporto all’equilibrio tra esamero e trimeri, è Kauffman che parla, fluirà esoergonicamente verso l’equilibrio mediante la sintesi dell’esamero. Dato che l’esamero è a sua volta catalizzatore della reazione, la sintesi dell’esamero è autocatalitica. Il primo sistema aggiunto è il pirofosfato PP, un dimero ad alta energia di monofosfati che si scinde per formare due monofosfati P + P. Come qualsiasi reazione, la reazione che converte PP in P + P ha un proprio equilibrio, e quindi un rapporto di equilibrio tra PP e P. In presenza di PP in eccesso rispetto all’equilibrio, la reazione fluisce verso l’equilibrio mediante scissione spontanea di PP, da cui si ottiene P + P.31 «Io mi richiamo alla conversione esoergonica di PP in P + P al fine di utilizzare la perdita di energia libera in questa reazione esoergonica per guidare la reazione trimeri-esamero di DNA oltre il suo equilibrio, determinando così una sintesi in eccesso rispetto 3’CCCGGG5’rispetto alla sua concentrazione di equilibrio. Pertanto, la sintesi in eccesso dell’esamero, che non si manifesterebbe spontaneamente, è guidata endoergonicamente essendo accoppiata alla scissione esoergonica di PP in P + P. In breve, la rottura esoergonica di PP in P + P fornisce l’energia libera per guidare l’accumulo in eccesso della concentrazione di 3’CCCGGG5’oltre il proprio equilibrio rispetto ai propri substrati, i trimeri 5’GGG3’e 5’CCC3’. La sintesi in eccesso di 3’CCCGGG5’costituisce la riproduzione in eccesso del prodotto della reazione autocatalitica dell’esamero oltre quella che si verificherebbe senza l’accoppiamento con la fonte di energia libera aggiuntiva PP. Il sistema allora si riproduce meglio accoppiandosi a PP che non accoppiandosi. […] Una volta che il pirofosfato PP viene scisso e forma P + P, al fluire di questa reazione verso il rapporto di equilibrio tra PP e P, quell’energia libera viene consumata. Per avere una fonte interna rinnovata di energia libera necessaria per sintetizzare esamero in eccesso, è conveniente risintetizzare il pirofosfato dai due monofosfati P + P’. […] In un’accezione generale la convenienza riflette l’organizzazione dei processi che alimenta un agente, ma quell’organizzazione non è conveniente, è essenziale.»32 La sintesi di PP da P + P richiede l’aggiunta di energia libera. A questo punto si deve aggiungere energia per risintetizzare PP da P + P. Per fare ciò, Kauffman chiama in causa una fonte addizionale di energia libera, l’elettrone e che assorbe un fotone hv, che viene così spinto endoergonicamente in uno stato eccitato e* e ricade esoergonicamente verso il proprio stato a bassa energia in una reazione accoppiata alla sintesi di PP da P + P. «Il punto di questa terza coppia di reazioni è chiaro: PP viene sintetizzato da P + P, così che PP possa continuare a guidare la sintesi in eccesso dall’esamero di DNA 3’CCCGGG5’. Complessivamente, il sistema di reazioni collegate è esoergonico. Avviene cioè una perdita complessiva di energia libera fornita a conti fatti dal fotone entrante hv, oltre che da i due substrati 5’GGG3’e 5’CCC3’. Quindi non stiamo sfuggendo alla seconda legge della termodinamica.»33 Torniamo per un attimo al ciclo di Carnot, in particolare nella fase in cui Kauffman aveva fatto spingere e tirare la manopola ed il pistone ad un soggetto esterno durante il ciclo. Come abbiamo già accennato, in una macchina reale il ruolo nell’organizzazione dei processi (chi spinge e tira la manopola) è assunto da ingranaggi e da scappamenti, da bielle e da connettori, da cuscinetti e da altri pezzi meccanici. Ora, però, il grande studioso americano ipotizza, come primo assunto, che l’esamero 3’CCCGGG5’sia il catalizzatore che accoppia la saldatura dei due trimeri 5’GGG3’e 5’CCC3’con la scissione esoergonica di PP in P + P e, come secondo assunto, che il monofosfato P si leghi all’esamero e faciliti la reazione. Egli, pertanto, suppone che P sia un attivatore allosterico della reazione dove il termine allosterico significa che P si lega a un sito dell’enzima, all’esamero in questo caso, diverso dal sito di legame proprio dell’esamero per i substrati. Attivatori e inibitori allosterici, dunque, come tutti sanno, sono comuni nei sistemi biologici. «In questo caso, P potrebbe legarsi allo scheletro di zuccheri-fosfato dell’esamero di DNA. Questo accoppiamento implica che quando PP si scinde per formare P + P, il monofosfato P eserciterà una retroazione attivando ulteriormente l’enzima esamerico e accelerando ulteriormente la catalisi di formazione dell’esamero. Una simile retroazione positiva di un prodotto di reazione sulla formazione di un enzima si verifica nella celebre glicolisi, il cuore del metabolismo delle vostre cellule. In realtà, in condizioni sperimentali opportune, questo accoppiamento basato sulla retroazione positiva può far sì che la glicolisi sia soggetta a marcate oscillazioni temporali nella concentrazione dei metaboliti glicolitici. Infine, chiamerò in causa qualche altro accoppiamento. Io suppongo che uno dei trimeri, 5’GGG3’, sia il catalizzatore che accoppia la perdita esoergonica di energia liberata dall’elettrone attivato e* a e, con la risintesi di PP da P + P. Ed evocherò un’inibizione allosterica di questa catalisi da parte dello stesso PP. Pertanto, il PP, quando è a concentrazione elevata, tende ad inibire la propria risintesi. Ma quando la sua concentrazione diminuisce, l’inibizione della sua sintesi viene rimossa, e PP viene risintetizzato.»34

La figura 4 mostra il primo ipotetico agente autonomo. Dopo aver costruito virtualmente l’impalcatura molecolare di un tale sistema, dunque, Kauffman ne mette in luce gli aspetti rilevanti. Egli, infatti, individua quattro caratteristiche su cui vale la pena riflettere. La prima riguarda il fatto che l’ipotetico agente autonomo «costituisce una classe di reti di reazioni chimiche non ancora indagate: il comportamento di sistemi esoergonici autocatalitici e a catalisi incrociata comincia adesso ad essere studiato. Il comportamento di reti di reazioni esoergoniche ed endoergoniche collegate è la sostanza stessa del metabolismo intermedio e della trasduzione biochimica dell’energia, oggetto di studio per i biochimici per anni. Ma, fino a oggi, nessuno ha iniziato a studiare reti di reazioni collegate in cui l’autocatalisi è accoppiata a reazioni esoergoniche ed endoergoniche connesse. Stiamo dunque entrando in un dominio completamente nuovo. Il nostro agente autonomo molecolare costituisce perciò un sistema con due caratteri essenziali dei sistemi viventi: l’auto-riproduzione e il metabolismo. Tuttavia, il mio insistere che un agente autonomo esegue un ciclo perfeziona il concetto di metabolismo per come viene comunemente inteso, includendo la richiesta che esso esegua un ciclo.»35 Il secondo aspetto messo in luce dal grande studioso americano, consiste nel fatto che il nostro agente autonomo virtuale è di necessità un sistema in non equilibrio. L’energia libera, infatti, nel nostro caso nella forma del fotone hv e dei trimeri substrati, viene inclusa ed impiegata per guidare la sintesi di PP e l’eccesso dell’esamero di DNA. All’equilibrio, dunque, non vi è azione causale. La sintesi in eccesso dell’esamero di DNA costituisce la replicazione in eccesso dell’esamero in virtù dell’accoppiamento della sintesi trimeri-esamero al ciclo di reazioni PP? P + P, che, agli occhi di Kauffman, costituisce una vera e propria «macchina chimica». Il terzo carattere da rilevare è il ciclo eseguito dall’agente. Nel comportamento della reazione PP? P + P è possibile vedere il ciclo. Nel ciclo di Carnot, come abbiamo ampiamente mostrato in precedenza, il gas effettua dei cicli: da compresso e caldo, a meno compresso e freddo, e di ritorno a compresso e caldo. Nell’ipotetico agente autonomo esiste un ciclo macroscopico di materia da PP a P + P attraverso la reazione di formazione dell’esamero di DNA e di ritorno lungo una via circolare a PP attraverso la reazione con l’elettrone a energia elevata. Ebbene, il ciclo macroscopico di materia intorno a questo ciclo costituisce la macchina operante. «In funzione dei dettagli delle costanti cinetiche, il nostro agente autonomo potrebbe letteralmente manifestare un ciclo di concentrazioni oscillatorio, dove la concentrazione di PP inizia elevata per diminuire poi rapidamente con la formazione di P + P; a quel punto, la concentrazione elevata di PP si riforma con l’impiego della reazione esoergonica e*? e che il fotone ha arricchito di energia. Allora, la reazione PP? P + P inclusa nell’agente autonomo costituisce una macchina chimica in cui si verifica un flusso macroscopico netto di materia intorno al ciclo PP? P + P, che opera lontano dall’equilibrio essendo spinto dall’addizione di energia del fotone hv e da quella dei due trimeri di DNA, e poiché l’energia è drenata via per guidare la sintesi in eccesso dell’esamero di DNA.»36 Infine, il quarto aspetto da rilevare, secondo Kauffman, risiede nel fatto che l’agente autonomo, come la macchina di Carnot, lavora lungo un ciclo. Al termine del ciclo il sistema è pronto per un nuovo ciclo, ovverossia si realizza un’organizzazione ripetuta del processo. Inoltre, come la macchina di Carnot che fatta funzionare al contrario è un frigorifero e non una pompa, se le reazioni dell’agente autonomo venissero attivate al contrario la macchina PP? P + P funzionerebbe nella direzione contraria. «La ragione è che tutte le coppie di reazioni sarebbero allontanate dall’equilibrio nella direzione contraria e l’analogo di invertire il movimento degli ingranaggi — ovvero invertire di segno gli accoppiamenti, positivi e negativi, di attivatore e inibitore con i due enzimi opportuni — convertirebbe l’energia in eccesso, immagazzinata nella concentrazione all’equilibrio dell’esamero di cui sopra, nella produzione di due trimeri e nella risintesi di PP da P + P. Se la liberazione del fotone hv fosse un passo facilmente reversibile, l’eccesso di PP guiderebbe l’emissione di un fotone da parte dell’elettrone eccitato, che ritornerebbe allo stato iniziale, lo stato non eccitato. In breve, l’agente autonomo, se fatto funzionare al contrario, si fonde con il suo cibo. Attivato al contrario, il sistema non è un agente autonomo: non si riproduce e non esegue un ciclo. Attivato al contrario il sistema è un lampo di luce.»37 Insieme a A. J. Daley, A. Girvin, P. R. Wills e D. Yamins, Kauffman, nell’articolo dal titolo: Simulation of a Chemical Autonomous Agent, ha simulato con successo il sistema di equazioni differenziali che corrispondono alla dinamica di questa rete di reazioni molecolari dell’agente autonomo. Le equazioni differenziali rappresentano il modo in cui la concentrazione di ciascuna specie chimica nell’agente autonomo varia nel tempo in funzione della concentrazione propria e di altre sostanze chimiche.38 In genere, nelle equazioni differenziali di questi modelli matematici sono incluse diverse costanti fisse che rappresentano costanti cinetiche e altri parametri. In questo caso, il sistema di equazioni differenziali possiede tredici di questi parametri. Il sistema dell’agente autonomo simulato viene allontanato dall’equilibrio mediante l’aggiunta persistente dei due trimeri di DNA 5’GGG3’e 5’CCC3’, la rimozione dell’esamero di DNA e l’attivazione persistente per opera del fotone hv, dall’esterno. La rete delle reazioni chimiche si verifica in condizioni di chemostato, ovvero tutti i costituenti molecolari del sistema sono trattati matematicamente come se fossero in un serbatoio reale ben agitato cui vengono aggiunti a velocità costante i trimeri ed il fotone. In aggiunta, i componenti molecolari dell’esamero vengono rimossi dal sistema con una velocità regolabile che ne mantiene costante la concentrazione interna a prescindere da quale sia la velocità di riproduzione dell’esamero. Sono stati eseguiti esperimenti di selezione al computer, non solo comparando l’agente autonomo ad un sistema esoergonico nudo di trimeri-esamero di DNA, ma anche mutando in maniera computazionale le costanti cinetiche per piccoli valori e facendo evolvere, sempre computazionalmente, gli agenti autonomi affinché si riproducessero con maggiore efficienza termodinamica. Alla luce di tutto ciò, dunque, nel suo volume, il grande studioso americano così commenta i risultati ottenuti: «I nostri risultati dimostrano innanzitutto una cosa: che gli agenti autonomi operanti lontano dall’equilibrio, e che utilizzano un ciclo, sono più efficienti nell’impiego dell’energia libera disponibile che entra nel sistema totale per riprodurre l’esamero di DNA che non quando è assente l’accoppiamento del sistema di DNA trimeri-esamero con il sistema del ciclo PP ed elettrone fotone. Allora, l’agente autonomo come totalità, includendo il suo ciclo, riproduce l’esamero di DNA più rapidamente che non il solo sistema esoergonico trimeri-esamero. In breve, fatto non meno importante, essere un agente autonomo che accoppia un sistema autocatalitico con un ciclo, arreca un vantaggio selettivo rispetto al semplice essere un sistema autocatalitico esoergonico. In secondo luogo, proprio come nel caso della retroazione positiva nella glicolisi, il nostro agente autonomo simulato, per valori opportuni delle costanti cinetiche, può subire intense oscillazioni temporali della concentrazione di PP e di altre sostanze. L’oscillazione di PP durante il ciclo, da concentrazione elevata a bassa concentrazione e poi di nuovo a concentrazione elevata, è analoga all’oscillazione dell’espansione e della compressione del gas nel ciclo della macchina di Carnot. In terzo luogo, esiste un paesaggio di fitness montuoso nello spazio dei parametri matematici delle tredici costanti cinetiche, dove alcuni valori delle costanti cinetiche determinano un’efficienza di riproduzione superiore rispetto ad altre. La selezione naturale darwiniana potrebbe in linea di principio operare se vi fosse variazione ereditabile delle costanti cinetiche. La conclusione principale che ricaviamo dalla nostra simulazione è che gli agenti autonomi, accoppiando uno o più cicli autocatalitici e cicli di lavoro, sono una forma perfettamente plausibile, se pure nuova, di rete di reazioni chimiche aperta e in non equilibrio. Nessuna magia qui. In un futuro prossimo quasi certamente costruiremo simili reti di reazioni molecolari degli agenti autonomi e ne studieremo la dinamica e l’evoluzione del comportamento. Una biologia generale è davvero dietro l’angolo.»39 Alla luce di quanto detto sinora, dunque, è ipotizzabile la creazione di una nuova forma di vita, per simulazione/manipolazione della biologia molecolare? In un’intervista rilasciata nel 2002 a R. Benkirane, Kauffman così ha risposto: «Si, potremo creare sistemi molecolari autoriproduttori in grado di compiere cicli termodinamici: all’inizio li si creerà in vitro e poi, in una seconda fase, si tenterà di inserirli in una parvenza di vita che nasce da abbozzi di cellule. Se pensa a ciò che è un agente autonomo, ovvero un sistema che si connette ad un ambiente e agisce per proprio conto, allora tutte le cellule viventi possono agire in questo modo all’interno del proprio milieu — ad esempio un batterio può nuotare risalendo un gradiente di glucosio per cercare cibo. Mi chiedo quali debbano essere le caratteristiche di un sistema fisico affinché esso possa connettersi al suo ambiente per proprio conto, e rispondo che tale sistema deve essere in grado di autoriprodursi e compiere cicli di lavoro termodinamico; forse così ho trovato una definizione rigorosa di vita… In ogni caso potremo produrre sistemi di questo tipo in un prossimo futuro, perché già oggi gli scienziati concepiscono sistemi molecolari autoriproduttori. Restano solo da aggiungere i cicli di lavoro termodinamico, e avremo una nuova tecnologia basata su questi sistemi entro i prossimi trent’anni.»40 L’agente autonomo virtuale finora studiato, però, è stato trattato come se il problema di conservare i reagenti in una regione di spazio confinata potesse essere ignorato. Tale assunto in realtà costituisce un’idealizzazione: se, infatti, l’ipotetico agente autonomo si trovasse in una soluzione diluita, le velocità di reazione sarebbero molto lente. Pertanto, sottolinea Kauffman, la creazione effettiva di un agente autonomo molecolare funzionante richiederà che le specie molecolari reagenti siano confinate in un piccolo volume (micelle e liposomi) o superficie, oppure confinate in qualche altro modo. Nel prossimo paragrafo mostreremo altre proprietà degli agenti autonomi molecolari. In particolare focalizzeremo l’attenzione sul concetto di lavoro. Il grande studioso americano, in effetti, critica il concetto fisico di lavoro: ai suoi occhi, infatti, l’interpretazione migliore di lavoro appare quella secondo cui quest’ultimo costituisce il rilascio vincolato di energia. «Eppure, i vincoli effettivi al rilascio di energia, essenziali per svolgere il lavoro, costituiscono a loro volta l’analogo di ingranaggi, bielle, connettori e scappamenti di una comune macchina. Ma, soprattutto, ci vuole di solito proprio del lavoro per costruire i vincoli sul rilascio di energia che poi costituisce a sua volta lavoro.»41 Nell’ipotetico agente autonomo, dunque, questi vincoli sono presenti negli accoppiamenti, precedentemente delineati, di catalizzatori e attivatori allosterici con le reazioni che costituiscono l’agente autonomo stesso. «Ho la sensazione — una sensazione profonda che rasenta la convinzione — che l’organizzazione coerente della costruzione di insiemi di vincoli sulla liberazione di energia, che costituisce il lavoro attraverso cui gli agenti costruiscono poi ulteriori vincoli sul rilascio di energia i quali, nel tempo dovuto, a loro volta letteralmente costruiscono una seconda copia dell’agente stesso, sia un concetto nuovo, la cui formulazione adeguata sarà un concetto adeguato di organizzazione.»42 E, nell’articolo del 2007 dal titolo Question1: Origin of life and a Living State, Kauffman, dopo aver introdotto la nozione di agente autonomo, aggiunge: «The inclusion of a work cycle seems to be a central feature of this tentative definition, for work cycles link spontaneous and non-spontaneous (exergonic and endergonic) chemical reactions. The collectively autocatalytic system […] might have been entirely exergonic. If one considers the biosphere as a whole, it is a richly interwoven web of linked exergonic and endergonic reactions building up the enormous chemical complexity of the entire biosphere, the most complex chemical system we know. I suspect that we will create molecular autonomous agents in the reasonably near future, for molecular reproduction has been achieved experimentally, as have molecular motors. I also suggest that such system may foretell a technological revolution for they do work cycles, hence can build things, as do cells when they build copies of themselves and do other work. It may be, although I would not insist on it, that molecular autonomous agents, augmented to have a bounding membrane, my be a minimal definition of life. I would note that Schrödinger, in What is life, argued for the necessity for «neg-entropy», but not for the requirement for a work cycle.»43 Se il ragionamento del grande biochimico americano è corretto, quindi, Schrödinger avrebbe visto giusto per quanto riguarda il suo microcodice il quale, però, ora viene «reinterpretato» come un sottoinsieme dei vincoli sulla liberazione di energia mediante cui un agente autonomo costruisce una copia grezza di se stesso. Ciò, allora, significa che il microcodice è la struttura stessa del DNA, che funge da vincolo sugli enzimi i quali poi trascrivono e traducono il codice. «Schrödinger tuttavia non asserì che il requisito di un agente dovesse essere il non equilibrio. Invece lo spostamento dall’equilibrio è una condizione necessaria affinché un microcodice faccia alcunché. E allora, forse, lo spostamento dall’equilibrio era implicito nella sua tesi. Ma, soprattutto, credo gli sia sfuggito un altro concetto: che un agente è un’unione di un sistema autocatalitico che segue uno o più cicli di lavoro. Un’unione che è un sistema dinamico di tipo nuovo. Ora che abbiamo visto un agente autonomo mi scopro a domandarmi se gli agenti autonomi potrebbero rappresentare una definizione adeguata della vita in sé. Non provo nemmeno a difendere la mia forte intuizione che la risposta sia affermativa. Ho il dubbio che il concetto di agente autonomo, inteso come sistema autocatalitico che esegue uno o più cicli di lavoro, definisca la vita. Se è così, eccolo il centro, quel nocciolo esclusivo della vita, che l’indagine di frammenti molecolari della cellula non rivela. Una buona parte del libro sarà dedicata ad esaminare gli sviluppi imprevisti di questa definizione provvisoria di agenti autonomi e, perché no, della vita. Ma non insisterò certamente su questa mia intuizione. Giunti sin qui sarà sufficiente rilevare che tutti i sistemi viventi liberi da noi conosciuti — batteri unicellulari, eucarioti unicellulari e organismi pluricellulari — soddisfano la mia definizione di agente autonomo.»44 Tale definizione provvisoria, tuttavia, a nostro giudizio, nasconde delle insidie. Se, infatti, la figura 4 ci illustra un primo caso di agente autonomo molecolare, quanto è grande la famiglia di sistemi abbracciata dal concetto di agente autonomo? Secondo Kauffman, nulla nel concetto di sistema riproduttivo, che esegue almeno un ciclo termodinamico, limita un sistema di questo tipo al DNA, all’RNA e alle proteine; pertanto, sembra plausibile che ampie classi di reti di reazioni chimiche possano esaudire i criteri fin qui delineati. A questo punto, quindi, risulta possibile chiedersi: sistemi mutuamente gravitanti come le galassie, non potrebbero esaudire gli stessi criteri? Ed inoltre, cosa dire, per esempio, di sistemi formati per lo più da fotoni, da spettri autoriproduttivi in una cavità risonante alimentata da un mezzo amplificatore? Ed, infine, che cosa dire della geomorfologia? A tali domande, però, Kauffman dichiara di non poter, al momento, offrire alcuna risposta: «Non lo so. Forse a questo punto ci basterà aver iniziato un’indagine, un’esplorazione, e non tanto averla completata.»45 L’indagine relativa agli agenti autonomi, pertanto, ci conduce verso quelle che potremmo definire come «le colonne d’ercole della biologia». Dove risiede, infatti, assumendo come attendibile la definizione di agente autonomo elaborata da Kauffman, la linea di demarcazione tra ciò che è vita e ciò che non lo è? Quali sono i principi alla base della genesi delle forme viventi e della loro auto-organizzazione, un’auto-organizzazione, vale a dire, molto più complessa rispetto a quella mostrata da una perturbazione atmosferica o da altri fenomeni naturali non ancora viventi? A partire dalle esplorazioni di Kauffman, nei prossimi paragrafi, cercheremo di mostrare come, a nostro giudizio, l’essenza della vita costituisca, in realtà, un’alterità radicale e profonda che trascende costantemente, pur non trasgredendole, la chimica (per esempio il concetto di autocatalisi), la fisica (per esempio, la nozione di cicli di lavoro termodinamico) e la bio-matematica (i modelli di simulazione e le equazioni differenziali). Forse, dietro al misterioso connubio di auto-organizzazione e selezione naturale non c’è solo una relazione addizionale tra materia, energia ed informazione, bensì, come Kauffman intuisce, giunge a fare capolino una nuova concezione dell’informazione, una concezione al cui interno l’informazione giunge ad apparire come una «qualità» in grado di generare e regolare l’intero sistema (relazione coestensiva legata ad un continuo gioco dialettico delle parti), trasformandolo in un sistema vivente e quindi in un sistema cognitivo. Ci stiamo riferendo qui all’affascinante possibilità di far dialogare il mistero della complessità del vivente con la nozione di emergenza del significato. Il bios, infatti, a nostro giudizio, andando oltre la misurazione meramente quantitativa (livello sintattico) dell’informazione aggredita attraverso la logica binaria (logica estensionale),46 può essere interpretato come un fenomeno emergente intrinsecamente connesso a forme di cognizione e di intenzionalità (livello semantico). In questo spirito, quindi, proseguiremo la nostra trattazione approfondendo, da un lato la circolarità fisica esclusiva della vita tra vincoli e lavoro secondo la quale il lavoro viene definito, al contempo, come il rilascio vincolato di energia e come la condizione principale della costruzione dei vincoli medesimi e dall’altro l’esigenza intrinseca al concetto di organizzazione propagante di porre le basi per la costruzione di una fisica della semantica (o meglio di una semantica molecolare). Questa intuizione geniale di Kauffman, pertanto, ci permette di compiere un ulteriore passo in avanti per ciò che concerne la nostra esplorazione dell’auto-organizzazione; sotto certi aspetti, però, tale indagine ci consente anche di esplorare percorsi teorici paralleli portati avanti da studiosi che pongono l’accento delle loro ricerche sui limiti della teoria dell’informazione di Shannon e sulla possibilità affascinante di elaborare quella che attualmente viene definita da alcuni come teoria semantica dell’informazione.

2. Lavoro propagante

Può darsi che il mondo sia brutalmente davanti ai nostri occhi, ma che, di esso, ci manchino le domande che ci consentirebbero di vedere. Davanti a noi, infatti, in ogni istante cellule o colonie di cellule propagano una meravigliosa organizzazione di processo: ogni agente autonomo, come abbiamo visto in precedenza, collegando con abilità processi esoergonici ed endoergonici, mediante la chiusura delle attività catalitiche e delle attività di lavoro, costruisce di fatto una seconda copia «grezza» di se stesso da «piccoli mattoni». Risulta difficile, dunque, vedere qualcosa di cui non si ha ancora un concetto. Nel presente paragrafo, pertanto, attraverso le esplorazioni di Kauffman, tenteremo di svolgere un’indagine su cosa potremmo intendere, e quindi vedere, per organizzazione propagante. Il nostro cammino teorico prende le mosse dal demone di Maxwell e dalla ragione per cui la misurazione di un sistema è remunerativa solo in una situazione di non equilibrio. Situazione in cui le misurazioni si possono archiviare in memoria ed impiegare per estrarre lavoro dal sistema misurato. In fisica, il demone di Maxwell è il luogo per antonomasia in cui è possibile trovare insieme materia, energia ed informazione. Ciò nonostante, più avanti scopriremo che il demone ed i suoi sforzi di misurazione sono sorprendentemente incompleti: solo alcuni caratteri di un sistema in non equilibrio, infatti, se misurati, rivelano spostamenti dall’equilibrio da cui in linea di principio risulta possibile estrarre lavoro; gli altri caratteri, invece, persino se misurati, sono inutili per rilevare tali fonti di energia. Ma procediamo con ordine. Si consideri per l’ennesima volta un sistema termodinamicamente isolato, ovvero una scatola che contiene un gas, isolata da ogni scambio di energia o di massa con l’esterno. Nella scatola sono contenute n particelle di gas e, come abbiamo sottolineato, di tutte le n particelle è possibile considerare posizione e quantità di moto. Ciascuna posizione e ciascuna quantità di moto risulta possibile poi scomporla in tre valori numerici, che definiscono posizione e moto nelle tre direzioni nello spazio. L’intero stato delle n particelle sarà perciò definito da 6n numeri, cui aggiungeremo la specificazione dei confini interni della scatola. In precedenza avevamo affermato che tutti i possibili stati di questo sistema 6n di particelle si possono suddividere in volumi molto piccoli di stati, che chiameremo microstati. Un microstato, come tutti sanno, è un insieme di microstati. In particolare, il macrostato all’equilibrio è un insieme di microstati che godono della proprietà per cui le particelle di gas sono distribuite nella scatola in modo pressoché uniforme, con una distribuzione caratteristica delle velocità all’equilibrio, che lo stesso Maxwell risolse. Questo macrostato all’equilibrio presenta ulteriori importanti proprietà per cui: a) Moltissimi microstati sono nel macrostato all’equilibrio e b) alcuni caratteri macroscopici (la temperatura, la pressione e il volume) sono sufficienti per specificare il macrostato all’equilibrio. «Abbiamo visto che, in termini di macrostati e microstati, la seconda legge può essere riformulata nella sua celebre incarnazione secondo la meccanica statistica. La seconda legge diventa l’enunciato secondo cui, all’equilibrio, il sistema fluirà da un qualunque macrostato iniziale in modo tale da trascorrere la maggior parte del tempo nel macrostato all’equilibrio. Questo enunciato della seconda legge non esclude il caso estremamente improbabile in cui succede che le n particelle fluiscano verso un angolo della scatola. La seconda legge sarà allora una legge statistica in meccanica statistica. Ma ecco che arriva Maxwell e inventa una creatura microscopica, poi soprannominata demone o diavoletto di Maxwell. Per inciso, confesso che trovo l’uso del termine demone qui più che leggermente interessante. Si può dire che il demone di Maxwell sia quasi un agente autonomo. Anche se questa creatura non viene definita così come la definisco io, presto vedrete come essa sembri capace di prendere decisioni e di agire su mondo fisico. […] Maxwell ci chiede di considerare quello stesso contenitore con n particelle. Egli però immagina che il contenitore sia suddiviso in due scomparti da una parte con una finestrella, nella quale è inserita una valvola a battente. A valvola aperta, le particelle di gas possono fluire dalla scatola sinistra a quella destra, oppure da quella destra alla sinistra. Ebbene, esprime divertito Maxwell, supponiamo che lo stato iniziale del gas nel contenitore sia il macrostato all’equilibrio: nessun lavoro macroscopico potrà essere svolto dal sistema all’equilibrio. Questo era il punto centrale di Carnot. Esiste un mare di energia nei movimenti casuali delle particelle di gas, ma da esso non vi è modo di estrarre lavoro meccanico, per esempio per spingere un pistone. Poi, aggiunge Maxwell, appassionandosi alla sua tesi, «immaginiamo che il nostro minuscolo amico agisca sulla valvola a battente in modo che egli, ogni volta che una particella veloce di gas si avvicina alla finestra dall’interno del contenitore sinistro verso quello destro, apra il battente e lasci passare la particella di gas più veloce della media, cioè la particella più calda. Supponiamo poi che il nostro demone agisca sulla valvola a battente e lasci così passare le particelle di gas più lente della media, e quindi più fredde, dal contenitore destro a quello sinistro. Ebbene, presto il contenitore sinistro sarà più freddo ed il contenitore destro più caldo. E ora […] noi possiamo sfruttare la differenza macroscopica di temperatura tra il contenitore sinistro e il contenitore destro ed estrarre lavoro meccanico, magari per spingere un pistone».»47 Maxwell pose, quindi, una questione difficile per la meccanica statistica: sembrava, infatti, che le azioni del demone potessero aggirare la seconda legge della termodinamica. In effetti, il diavoletto di Maxwell ha posto un enigma non ancora risolto appieno. Tuttavia, un passo importante verso il «salvataggio» della seconda legge lo ha compiuto L. Szilard che concepì la reazione nucleare a catena, favorendo così lo sviluppo della bomba e dell’energia atomiche. «Szilard effettuò un calcolo che collegava per la prima volta il concetto di entropia ad un concetto nuovo di informazione. L’entropia in un sistema è la misura del suo disordine. Se ricordate, possiamo definire i volumi di macrostati differenti dal numero di microstati contenuti in ciascun macrostato. Per convenzione, consideriamo il logaritmo del numero di microstati di ciascun macrostato. In aggiunta, ogni macrostato ha anche la probabilità di essere occupato dal sistema. Moltiplichiamo il logaritmo del numero di microstati per macrostato per la probabilità che il sistema sia in quel macrostato. A questo punto, sommiamo tutti questi valori per tutti i macrostati. Il valore totale sarà l’entropia del sistema.»48 Dal punto di vista statistico, l’entropia di un sistema o aumenta nel tempo oppure è costante. All’equilibrio, per esempio, essa è costante. Diversamente, se il sistema viene lasciato libero da un macrostato inizialmente improbabile, in un primo momento l’entropia iniziale sarà bassa poiché la maggior parte dei macrostati non è occupata, tuttavia, con il passare del tempo, essa si diffonderà su tutte le possibilità e la somma della probabilità dei tempi di occupazione moltiplicata per i volumi dei macrostati crescerà fino al valore di equilibrio. «Szilard compì una prima riflessione su quella che in seguito Shannon avrebbe definito informazione. Szilard aveva grosso modo compreso che, quando il demone lascia passare in modo specifico una particella più veloce o più lenta nello scomparto sinistro oppure in quello destro, allora l’entropia totale del sistema sta diminuendo un poco. Ma, a sua volta, Szilard stimò la quantità di lavoro che il demone deve svolgere per distinguere se la particella di gas è più veloce o più lenta della media. Ne risulta che il lavoro da svolgere, e quindi l’energia utilizzata, è equivalente al lavoro che in seguito potrà essere estratto dal sistema una volta che le particelle veloci e quelle lente sono state segregate nei due comparti. Poiché il lavoro svolto dal demone equivale al lavoro estraibile in seguito dal sistema, all’equilibrio non può essere estratto alcun lavoro netto dal sistema: la seconda legge è salva.»49 Il passo successivo, però, lo ha compiuto Shannon legando il concetto di entropia con quello di informazione. Egli era interessato alla trasmissione dei segnali via cavo e concepì acutamente il segnale minimo come una risposta tutto o nulla, una risposta «si» o «no», che si poteva quindi rappresentare sottoforma di cifre binarie (di 1 o 0), quelle che oggi definiamo bit. Shannon considerò l’entropia di una sorgente che inviava un eventuale messaggio come l’insieme dei possibili messaggi potenzialmente inviabili, dove ogni messaggio doveva essere quantificato per la probabilità di essere effettivamente inviato. Egli concepì la ricezione di un messaggio come la riduzione di entropia, o di incertezza, riguardo a quale messaggio fosse stato effettivamente inviato, considerato l’insieme iniziale di messaggi possibili. In tal modo, dunque, Shannon reinventò la stessa matematica attinente all’entropia. Si immagini che esista un insieme di messaggi e che ciascuno di essi occupi un volume in uno spazio di messaggi possibili. Ogni messaggio viene inviato dalla sorgente con una certa probabilità. Shannon allora considerò il logaritmo del volume, nello spazio dei messaggi, occupato da un messaggio e lo moltiplicò per la probabilità che quel messaggio venisse inviato dalla sorgente. Se la frazione del volume totale dello spazio dei messaggi occupato da un certo messaggio è p, allora il logaritmo di questo volume è logp mentre la probabilità di quel volume è p. Pertanto il logaritmo di una probabilità di un messaggio moltiplicata per la probabilità stessa è data da plogp. La somma di questi termini plogp per l’insieme totale dei messaggi alla sorgente, dunque, rappresenta l’entropia della sorgente. «La ricezione di un segnale riduce l’incertezza nel ricevente riguardo a cosa viene inviato dalla sorgente, un’entropia negativa dunque. La misura dell’informazione secondo Shannon sarà allora il valore negativo della misura normale dell’entropia. Il legame che Szilard stabilì tra entropia e demone di Maxwell è, grosso modo, il seguente: la distinzione effettuata dal demone circa il fatto che una molecola di gas sia più veloce o più lenta della media e provenga dallo scomparto sinistro oppure da quello destro (vale a dire, se debba aprire o chiudere la valvola) costituisce una misurazione che estrae informazione sul sistema del gas, e quindi diminuisce l’incertezza sul sistema stesso. L’entropia del sistema sarà ridotta. La cosa importante è che, quando si parla di entropia, esiste un osservatore implicito. Pertanto, un fisico potrebbe affermare che l’entropia di un sistema la dobbiamo alla «nostra suddivisione a grana grossa» del sistema in macrostati scelti (arbitrariamente). Se noi disponessimo di più informazione sugli stati microscopici del sistema, la nostra grana più fine ridurrebbe l’entropia del sistema dal nostro punto di vista. E, difatti, nel concetto di entropia, vi è stata una certa confusione sul ruolo dell’osservatore e della sua scelta più o meno arbitraria delle dimensioni della grana.»50 R. Sinclair e W. Zurek hanno rivisitato il problema del demone con un mirabile insieme di concetti proponendo altresì una soluzione interessante alla confusione or ora accennata. Il demone quando è alle prese con la valvola sta in realtà misurando il sistema di gas: egli, infatti, effettuando le misurazioni, conosce più cose sullo stato dettagliato del sistema, ovvero possiede una descrizione compatta dello stato del sistema del gas. In realtà, la descrizione compatta dello stato di equilibrio è tale per quanto possibile: alcune variabili macroscopiche (temperatura, pressione e volume) sono sufficienti. I due studiosi hanno effettuato indipendentemente ricerche che dimostrano quanto segue: «da principio, il demone, nel suo operare, accresce la propria conoscenza del sistema e dunque l’entropia del sistema di gas diminuisce. Ma, al contempo, aumentando l’informazione che il demone ha del sistema, di quest’ultimo aumenta anche la lunghezza della descrizione più compatta. In realtà, la lunghezza della descrizione più compatta aumenta, in media, esattamente con la stessa velocità con cui diminuisce l’entropia nel sistema di gas. Ma al crescere della lunghezza della descrizione più compatta, bit dopo bit reale, il suo contenuto di informazione aumenta, bit dopo bit. Pertanto, per ciascun bit di riduzione dell’entropia del sistema di gas ottenuto dalle nostre misurazioni, il contenuto d’informazione della descrizione più compatta aumenta, in media, esattamente con la stessa rapidità. Oppure — afferma Zurek — nell’interpretazione moderna, in un sistema di gas all’equilibrio la somma dell’entropia del sistema di gas e della conoscenza che l’osservatore ha di quel sistema è una costante.»51 Ebbene, è ancora possibile estrarre lavoro dal nostro sistema di gas misurato avvalendoci dell’informazione sul suo microstato ricavata da tutte le misurazioni. Tuttavia, nota Sinclair, a lungo andare l’inganno non funzionerà poiché si è dovuto registrare l’informazione sul sistema di gas da qualche parte, magari nei registri di un chip di silicio. Ad ogni modo, in un certo momento, all’interno di un sistema chiuso, il chip avrà saturato di bit i suoi registri. Per continuare a misurare il sistema all’equilibrio, quindi, si dovrà cancellare il chip. Il calcolo effettuato da Sinclair, inoltre, conferma quello di Szilard: cancellare un bit archiviato in memoria richiede un costo energetico minimo che bilancia esattamente il lavoro che si potrebbe ottenere dal sistema di gas usando l’informazione immagazzinata relativa al sistema. La seconda legge, ancora in un’accezione statistica, regge. Stando così le cose, dunque, Kauffman così scrive: «All’equilibrio nessun lavoro macroscopico può essere svolto da un sistema: in una condizione di equilibrio la misurazione non paga. Perché questo lungo preambolo? Perché invece paga misurare il sistema di gas se non è all’equilibrio. Un semplice esempio: le particelle di gas nello scomparto sinistro sono effettivamente più calde di quelle nello scomparto destro. La pressione nello scomparto sinistro sarà dunque maggiore rispetto a quello dello scomparto destro. Se la valvola è aperta, il gas fluirà dallo scomparto sinistro a quello destro fino a equilibrio ristabilito. Si noti che una descrizione molto semplice, compatta, ha colto questi tratti del sistema in non equilibrio e si può estrarre lavoro mentre il sistema di gas fluisce verso l’equilibrio. Più in generale, la tesi di Zurek è che, quando le misurazioni sono effettuate su un sistema di gas in non equilibrio, la lunghezza della descrizione più compatta cresce più lentamente di quanto la conoscenza così guadagnata riduca l’entropia del sistema. È pagante misurare il sistema in non equilibrio, nel senso che quelle misurazioni specificano gli spostamenti dall’equilibrio che costituiscono fonti di energia utilizzabili per estrarre lavoro. Ecco che il demone è davvero un luogo della fisica dove confluiscono materia, energia, informazione e, naturalmente, lavoro.»52 Si prenda in considerazione ora come il lavoro potrebbe essere estratto nella situazione classica del demone di Maxwell, con un gas ideale in due scomparti separati da una parete con finestrella e valvola. Come esempio si consideri un piccolo mulino a vento. La banderuola sul mulino misura la direzione del vento e direziona il mulino in modo da disporne le pale contro vento. Il vento eseguirà a sua volta lavoro sulle pale facendo ruotare il mulino. Il sistema complessivo misura una deviazione dall’equilibrio (in questo caso, la direzione del vento), orienta l’intero sistema in modo che il marchingegno estragga lavoro grazie al vento ed esso estrarrà lavoro: il mulino gira. A questo punto si immagini che il piccolo mulino sia collocato molto vicino alla finestra con la valvola all’interno dell’intero sistema di gas. Se la valvola è aperta, un flusso d’aria passerà dallo scomparto sinistro a quello destro. La pala del mulinello misurerà la direzione del flusso e orienterà le pale perpendicolarmente a esso. Infine, il flusso d’aria causerà la rotazione della pala ausiliaria, che estrarrà pertanto lavoro meccanico dal sistema fino a raggiungere l’equilibrio. È dunque possibile chiedersi: quale aspetto del sistema di gas totale è stato misurato e rilevato si da poter estrarre lavoro? Approssimativamente, il flusso d’aria dallo scomparto sinistro a quello destro. Kauffman, però, fa notare come in realtà non tutte le misurazioni del sistema a due scomparti si sarebbero rivelate informazione utile, nel senso che il lavoro avrebbe potuto essere estratto dallo scomparto reale nella sua configurazione reale. Per esempio, la scatola con la valvola separa lo scomparto destro dal sinistro; si supponga che vi sia un identico numero di molecole di gas dai due scomparti di grandezza equivalente e che il gas nello scomparto sinistro sia più caldo di quello nello scomparto destro. Si supponga poi che il demone misuri il numero e le posizioni all’istante di tutte le particelle di gas negli scomparti destro e sinistro. Se si misurassero il numero e le posizioni istantanee di tutte le particelle di gas negli scomparti destro e sinistro, non verrebbe comunque rilevato che le particelle nello scomparto sinistro sono più calde che in quello destro e che quindi si muovono più velocemente. Per misurare il movimento più veloce, il demone deve misurare posizioni in due istanti, oppure qualche altra proprietà, come il contraccolpo delle pareti dello scomparto misurato dalla quantità di moto trasferita dalle particelle di gas più calde rispetto a quelle più fredde nello scomparto sinistro e destro quando rimbalzano contro la parete. Come fa, allora, il demone a misurare (o decidere) le proprietà rilevanti, affinché sia identificata con successo una fonte di energia da cui estrarre lavoro? «A dire il vero, una risposta ancora non l’abbiamo. Eppure è una questione essenziale. Solo determinati caratteri di un sistema in non equilibrio riveleranno, a una misurazione, uno spostamento dall’equilibrio effettivamente utilizzabile per estrarre lavoro. Altri caratteri, se misurati, sono privi di utilità per la rivelazione di uno spostamento dall’equilibrio impiegabile per estrarre lavoro da parte di un sistema specifico qualsiasi. È importante sottolineare che qui disponiamo di una accezione di utile che esula dal contesto degli agenti autonomi. Misurazioni utili individuano tratti di spostamento dall’equilibrio che rivelano fonti di energia da cui si può estrarre lavoro. […] Io credo che in definitiva potremo creare una teoria statistica della probabilità della generazione di nuovi processi, di nuove strutture e di nuove sorgenti di energia specifici; della propagazione di misurazioni; della rivelazione di fonti di energia utili; e degli accoppiamenti di strutture e di processi a fonti di energia per estrarre lavoro e accumulare progressivamente nuove strutture, nuove fonti di energia e nuovi processi — il tutto in funzione della diversità attuale di strutture, di processi di trasformazione e di entità di misurazione e di accoppiamento. […] Quella di cui abbiamo bisogno è una teoria dove la rottura di simmetria richiede ulteriore rottura di simmetria in un accumulo progressivo di strutture e processi diversificanti.»53 Un prototipo parziale di una teoria statistica di questo tipo è presente nel precedente paragrafo dove si è parlato di agenti autonomi, intesi come sistemi fisici auto-riproduttivi, che misurano con esito favorevole spostamenti dall’equilibrio e che si evolvono con successo per accoppiare reazioni esoergoniche ed endoergoniche e per realizzare cicli di lavoro completi: la vasta rete di reazioni esoergoniche ed endoergoniche accoppiate in modo complesso nell’ecosistema globale, pertanto, appare, agli occhi di Kauffman, come una dimostrazione positiva di tale costruzione propagante nell’universo fisico. È altresì importante analizzare il significato delle espressioni, presenti nella citazione precedente, «effettivamente» e «sistema specifico qualsiasi». Si consideri una singola particella di gas in un contenitore. Si misuri la posizione di tale particella a destra o a sinistra di una qualunque superficie arbitraria che tagli trasversalmente il contenitore. Se si sa che la particella è a sinistra di una paratia arbitraria data, è possibile, in linea di principio, estrarre lavoro consentendo a tale particella di passare attraverso una finestra nella paratia e di effettuare lavoro sul mulinello mentre passa nello scomparto destro. Sembra, pertanto, che, in linea di principio, qualsiasi misurazione arbitraria rilevi una fonte di energia sfruttabile per estrarre lavoro. Kauffman, però, ci tiene a precisare che è falsa la conclusione secondo cui qualunque delle misurazioni arbitrarie del nostro sistema con una sola molecola di gas possa rilevare uno spostamento dall’equilibrio da cui estrarre lavoro. «Quell’«in linea di principio» di poc’anzi implica l’idea che, avendo collocato arbitrariamente la paratia e misurato da che lato della paratia si trova la particella, e rilevato quindi mediante quella misurazione arbitraria lo spostamento dall’equilibrio che è fonte di energia, con il senno di poi possiamo decidere una procedura di costruzione che utilizzerà l’informazione sullo spostamento dall’equilibrio per estrarre lavoro dal sistema misurato, in non equilibrio.»54 In altre parole, è possibile collocare il mulinello nel sistema dopo aver misurato la posizione della particella di gas. Prima si effettua la misurazione e poi si colloca il mulinello nello scomparto privo della particella di gas, così quella particella, attraversando la valvola a battente, farà ruotare lievemente il mulinello. Ma nel caso in cui si fosse già costruito il sistema destinato a estrarre lavoro (come nel caso del minuscolo mulinello) e lo si fosse già montato in una posizione specifica dentro il contenitore, non potrebbe essere estratto alcun lavoro netto: la molecola di gas, infatti, è Kauffman che parla, rimbalzando ripetutamente contro le pale del mulinello da tutti gli angoli, non permetterebbe il verificarsi di alcuna rotazione netta della pala. Secondo il grande studioso americano, dunque, qui è possibile rintracciare gli indizi di qualcosa di nuovo: «Solo determinati aspetti di un certo sistema in non equilibrio, se misurati, daranno luogo al rilevamento di fonti di energia che potrebbero essere accoppiate ad altri processi specifici che, effettuando lavoro, propagano cambiamenti macroscopici nell’universo. Il minuscolo mulino è un esempio di congegno che non solo rileva il flusso di particelle dallo scomparto sinistro a quello destro, ma che orienta la pala perpendicolarmente a quel flusso e presenta accoppiamenti e vincoli incorporati nella sua struttura tale che il lavoro meccanico venga effettivamente estratto. […] L’universo nella sua interezza è stato testimone della nascita di nuove strutture e di nuovi processi, il che è accaduto anche per la biosfera. Dove non esistevano differenze, differenze sono scaturite. In un’accezione generale, la persistente emergenza di strutture e di processi differenti è la rottura persistente della simmetria dell’universo. Che cosa alimenta questa evidente diversità propagante?»55 Le reazioni chimico-organiche esorganiche ed endorganiche tra loro collegate presenti in quegli agenti autonomi molecolari che chiamiamo cellule sono proprio un esempio di strutture e funzioni al contempo raffinate e complesse. Per esempio, la distribuzione della carica elettrica su due molecole organiche complesse avvicinate tra loro, accoppiata ai movimenti traslazionali, vibrazionali e rotazionali, costituisce, secondo Kauffman, il mezzo raffinato per misurare gli spostamenti dall’equilibrio, per accoppiarsi a tali spostamenti e per generare reazioni esoergoniche ed endoergoniche catalizzate collegate. «Al crescere della diversità molecolare della biosfera, nascono molte di queste specie molecolari lontane dall’equilibrio: molte di esse sono capaci di rilevare spostamenti dall’equilibrio simili e si generano ulteriori reazioni endoergoniche ed esoergoniche accoppiate di questo tipo. In generale, sembrerebbe che, generandosi una diversità maggiore di entità — entità perciò necessariamente più complesse -, i loro modi d’essere in condizioni di non equilibrio aumentano in quanto a diversità e raffinatezza. A sua volta, l’esistenza stessa di insiemi di queste entità progressivamente diverse e complesse conferisce loro un numero maggiore di modalità, e dunque maggiore probabilità, per accoppiarsi l’una con l’altra, così che l’una possa misurare uno spostamento dall’equilibrio dell’altra. Queste entità si imbattono dunque in una fonte di energia che può essere, ed è, estratta per eseguire lavoro. A sua volta, quel lavoro può dirigere processi non spontanei a creare specie molecolari ancora più complesse, o altre entità, nel possibile adiacente. In breve, sembra esistere una relazione positiva tra la diversità e la complessità di strutture o processi e la diversità e la complessità dei caratteri di un sistema in non equilibrio, che possono essere rilevate e misurate dalla struttura di rilevazione per identificare una fonte di energia e poi accoppiarsi alla fonte di energia ed estrarre lavoro. Se esiste una relazione per cui tali caratteri diversi e complessi di sistemi in non equilibrio, utili come fonte di energia, possono essere rivelati al meglio da strutture egualmente diverse e complesse, allora nell’universo sembra esistere un insieme di processi autocatalitici generalizzati già a partire dal Big Bang, e anche in una biosfera, mediante i quali nascono sistemi in non equilibrio di diversità e complessità crescenti, che forniscono fonti di energia di raffinatezza e di complessità crescenti, e che a loro volta vengono rilevati ed estratti dalle strutture vieppiù complesse che vengono generate.»56 Questa lunga riflessione di Kauffman, riportata qui quasi integralmente, costituisce, senza dubbio, una prima risposta alla domanda relativa alla fonte dell’organizzazione propagante della biosfera: la diversità e la complessità stesse della biosfera, infatti, è il grande studioso che parla, ne causano l’ulteriore diversificazione e complessificazione (e lo stesso discorso potrebbe valere per l’universo intero). «Il legame tra un ligando e un recettore può innescare una complicata sequenza di reazioni che conducono alla sintesi di centinaia di specie molecolari differenti. Ma l’elevata specificità delle interazioni molecolari in una cellula è un esempio puntuale della nascita di una ricca gamma di processi molecolari complessi, dalle ricche sfumature strutturali e operative, che misurano e rilevano fonti di energia e che accoppiano tali fonti all’esecuzione di ulteriore lavoro, sia esso chimico, elettrico o meccanico. Una biosfera che coevolve realizza proprio l’emergenza di tale organizzazione auto-costruttiva diversificante. Se le galassie, i sistemi planetari, quelli stellari o di altro tipo facciano la stessa cosa è una questione aperta. Ancora una volta, si percepisce la possibilità di una teoria statistica della propagazione e dell’auto-elaborazione di tali sistemi trasformazionali dalla struttura connessa.»57 In questo spirito, dunque, dopo aver indagato il demone di Maxwell, Kauffman si pone ora una domanda propria della fisica: che cos’è il lavoro? La risposta dei fisici è la seguente: l’integrale della forza per la distanza. I fisici hanno in mente qualcosa di simile alle leggi di Newton, dove F = ma, la forza è uguale alla massa per l’accelerazione. In tal senso, allora, il lavoro svolto si ricava semplicemente sommando piccoli incrementi di forza agente su una massa e accelerandola lungo una distanza. Tuttavia, vi sono delle complicazioni. In qualsiasi specifico caso di lavoro eseguito, una direzione di applicazione della forza è specificata nello spazio tridimensionale, qualche direzione reale del movimento della massa è specificata nello spazio tridimensionale ed un meccanismo reale di accoppiamento è in gioco cosicché la forza agisce effettivamente sulla massa e la accelera in quella direzione. È dunque possibile domandarsi: come si pone in essere la specificazione di una direzione? Ed inoltre, come si verifica l’organizzazione del caso specifico di lavoro? Nella fisica classica tutte queste specificazioni sono poste all’inizio del problema, nell’enunciato delle condizioni iniziali e al contorno. Si consideri come esempio una partita di biliardo. Le palle sono sul tavolo in questa o quest’altra posizione, la stecca viene mossa con tale velocità e colpisce una certa palla in tale posizione con una certa velocità. A questo punto si calcoli con gli strumenti di Newton la traiettoria futura delle palle sul tavolo. «Il problema dell’origine delle condizioni iniziali e al contorno, e lo specifico accoppiamento tra stecca e palla, saranno nascosti nelle condizioni iniziali e al contorno del problema e nel modo in cui Newton ci ha insegnato a calcolare. In breve, il problema dell’organizzazione del processo in qualsiasi caso specifico di lavoro è nascosto alla vista nelle condizioni iniziali e al contorno dell’enunciato usuale del problema fisico. In effetti, la scelta è quella dei gradi di libertà rilevanti, che equivale alla scelta delle condizioni al contorno di contro alle variabili dinamiche del sistema. Ma una biosfera che si evolve non è che la nascita nell’universo delle complesse, e di continuo diversificanti, condizioni iniziali e al contorno che costituiscono agenti autonomi che coevolvono, con la loro mutevole organizzazione di capacità nel misurare e rilevare fonti di energia, e di accoppiare tali fonti rilevate a sistemi che talvolta estraggono lavoro. […] Ha senso voler prestabilire in modo finito le condizioni iniziali e al contorno di una biosfera? Io sosterrò di no, che non ha senso. La mia tesi sarà che non possiamo prespecificare in modo finito lo spazio delle configurazioni di una biosfera e che dunque non possiamo fare la stessa cosa per le sue condizioni iniziali e al contorno.»58 Stando così le cose, secondo Kauffman, non è possibile nascondere la questione dell’organizzazione dei processi di lavoro in un enunciato delle condizioni iniziali e al contorno della biosfera. Egli, infatti, tentando di andare oltre Newton, si sforza di risolvere l’emergenza e la propagazione dell’organizzazione nei suoi stessi termini. Consideriamo il lavoro da un secondo punto di vista. Facciamo il caso di un sistema termodinamico isolato. All’equilibrio, il sistema non può eseguire alcun lavoro. Poniamo però che il sistema sia suddiviso in due o più domini, per esempio da una membrana. Ecco, una parte del sistema può ora svolgere del lavoro sull’altra parte. Per esempio, se la pressione media in una parte è superiore alla pressione in un’altra parte, la prima parte provocherà il rigonfiamento della membrana verso l’interno della seconda parte. Da dove è venuta la membrana? Come viene a essere suddiviso il sistema? Non si tratta forse di un’altra condizione iniziale o al contorno che cela la domanda: da dove è derivata questa organizzazione di materia e di processo? Per inciso, si noti che il concetto di lavoro sembra richiedere che l’universo sia in sé suddiviso. Regioni dell’universo devono essere distinte (da cosa o da chi?) affinché il lavoro si verifichi. E adesso vengo a una delle mie definizioni preferite, coniata da Peter Atkins nel suo libro definisce il lavoro «liberazione vincolata di energia» e ribadisce che il lavoro è una «cosa».»59 Si consideri il cilindro ed il pistone nel ciclo di Carnot ideale, con il gas di lavoro caldo e compresso dentro la camera. Il cilindro e il pistone, la posizione del pistone nel cilindro, il grasso tra il pistone ed il cilindro sono vincoli che, insieme con il gas caldo compresso nella testa del cilindro, affinché il lavoro si svolga quando il gas si espande ed esercita la spinta sul pistone. Quale è, tuttavia, l’origine di tali vincoli? E così sembriamo entrare in un circolo interessante: il lavoro è la liberazione vincolata di energia, ma spesso è necessario il lavoro per costruire i vincoli. Secondo Kauffman, dunque, per lavoro qui si intende un accoppiamento tra processi spontanei e non spontanei, ovverossia proprio quello che si suppone debba accadere negli agenti autonomi. «L’universo è pieno di fonti di energia. Scaturiscono strutture e processi in non equilibrio, di diversità e complessità crescenti, che costituiscono fonti di energia e che misurano, rivelano e catturano quelle fonti di energia, costruiscono nuove strutture che costituiscono vincoli sul rilascio di energia, e quindi spingono processi non spontanei a creare ulteriori processi, strutture e fonti di energia, nuovi e diversificanti di questo tipo. […] La cosa certa è che finora non disponiamo di una teoria coerente per questa fioritura di processo e di struttura. Di qualunque cosa si tratti, una biosfera lo fa. Quanto era sterile il Nebraska, ovunque esso fosse, quattro milioni di anni fa! Ora, non più.»60 Il cuore dell’enigma riguarda la comprensione adeguata del concetto di organizzazione. Più in profondità, è il grande studioso che parla, il mistero attiene alla manifestazione storica, a partire dal Big Bang, di strutture connesse di materia e di energia e dei processi mediante i quali nell’universo compare una crescente diversità di tipi di materia, di fonti di energia e di tipi di processi: proprio ciò che abbiamo davanti agli occhi e che non siamo in grado di vedere. Riassumendo brevemente quanto detto sinora, dunque, abbiamo che il lavoro è la liberazione vincolata di energia e i vincoli sono loro stessi la conseguenza di lavoro. Ebbene, sulla base della definizione provvisoria di agente autonomo come un sistema auto-riproduttivo che esegue almeno un ciclo di lavoro, Kauffman ha rilevato che un agente autonomo è necessariamente un dispositivo in non equilibrio, un dispositivo, vale a dire, in grado di immagazzinare energia. Inoltre, coma abbiamo ampiamente mostrato in precedenza, riflettendo sui cicli di lavoro, il grande studioso si è interrogato sul demone di Maxwell, sulla misurazione, sul motivo per cui la misurazione paghi, ed infine su quali aspetti di un sistema in non equilibrio sono misurati in modo tale da costruire una fonte di energia. Di qui si è poi domandato come nascano accoppiamenti in grado di catturare la fonte di energia giungendo altresì al concetto di lavoro, a quello di vincoli ed infine a quello che è stato definito come lavoro propagante dovuto, cioè, all’occorrenza di insiemi connessi di vincoli e flussi di materia e di energia. «Un passo successivo sarà capire che i soli agenti autonomi ben conosciuti, vale a dire le cellule reali — come il lievito, i batteri, le vostre e le mie cellule — realizzano effettivamente processi collegati in cui processi spontanei e non spontanei sono accoppiati per costruire vincoli sulla liberazione di energia. L’energia, una volta liberata, costituisce lavoro che si propaga e che effettuerà ulteriore lavoro, costruendo ulteriori vincoli sulla liberazione di energia che, liberata a sua volta, costituirà lavoro destinato a propagarsi oltre.»61 La figura 5 rappresenta in modo schematico una cellula.

Figura 5

Image

Qui viene mostrata una tipica membrana a doppio strato lipidico, piccole molecole organiche di specie differenti A, B, C, D, E, F, G, un canale trans-membrana, e così via. Ebbene, come tutti sanno, le cellule eseguono di regola lavoro termodinamico per costruire lipidi da specie molecolari più piccole. Tipicamente, l’energia la forniscono la scissione di ATP in ADP o reazioni metaboliche esoergoniche simili. I lipidi, tuttavia, hanno la capacità di precipitare in una struttura a bassa energia, precisamente un doppio strato lipidico. In ambiente acquoso, notoriamente, i lipidi tendono a formare membrane a doppio strato lipidico con le teste idrofobiche affacciate sul mezzo acquoso e le code idrofobiche rivolte in profondità, le une contro le altre lontane dall’acqua. In realtà, se si prende una molecola lipidica e la si dissolve in acqua, si formeranno spontaneamente vescicole membranose di lipidi a due strati: i liposomi. Alla luce di tutto ciò, dunque, risulta possibile inferire, in accordo con Kauffman, che le cellule eseguono lavoro termodinamico per costruire lipidi, lipidi che, a loro volta, formano spontaneamente una struttura a bassa energia, la membrana. Ma la membrana costituisce vincoli. Si veda la figura 5. «A e B sono piccole specie molecolari organiche capaci di tre reazioni ipotetiche. A e B possono essere soggette ad una reazione due-substrati-due-prodotti e formare C e D. A e B possono saldarsi e formare un unico prodotto, E. Oppure A e B possono andare incontro a una differente reazione due substrati-due prodotti e formare F e G. Naturalmente ciascuno di questi tre percorsi di reazione di A e B procede lungo le proprie coordinate di reazione attraverso il proprio differente stato di transizione. Poiché ciascuno dei tre stati di transizione possiede un’energia superiore rispetto ad A e B o ai prodotti C più D oppure E o F più G, l’energia dello stato di transizione è una barriera di potenziale energetico, che rallenta la reazione da A e B lungo ciascuno dei tre percorsi di reazione.»62 Si supponga che A e B si dissolvano nella membrana lipidica dall’interno acquoso della cellula. Quando ciò accade, l’immersione di A e di B nell’ambiente della membrana modifica i movimenti vibrazionali, rotazionali e traslazionali (o gradi di libertà) di A e B. Ma, a loro volta, le modificazioni dei movimenti di A e di B modificano l’altezza delle energie dello stato di transizione lungo ciascuna delle tre vie di reazione da A e B a C più D oppure a E, o a F più G. «Ma la modificazione delle altezze di energia potenziale lungo i tre differenti percorsi delle reazioni da A e B è precisamente la modificazione dei vincoli su queste reazioni. Le altezze delle barriere, insieme con le barriere di energia anche superiori che forniscono i muri delle coordinate di reazione lungo cui la reazione procede, costituiscono i vincoli. La cellula in realtà ha dunque svolto lavoro termodinamico per costruire vincoli sulla liberazione di energia chimica immagazzinata in A e B, che potrebbe essere liberata per formare C più D oppure E, o anche F più G.»63 Non solo. Il grande studioso, infatti, fa notare che la cellula esegue lavoro termodinamico, utilizzando la degradazione di ATP in ADP, anche per legare gli aminoacidi in una proteina enzimatica. L’enzima diffonde nella regione della membrana dove sono caricati A e B e si lega stereospecificamente allo stato di transizione che conduce da A e B ai prodotti C e D. Legandosi al complesso dello stato di transizione di questo percorso di reazione, l’enzima abbassa la barriera di potenziale per la reazione A + B? C + D e l’energia chimica immagazzinata in A + B viene liberata per formare C + D. Stando così le cose, quindi, Kauffman così scrive: «La cellula esegue pertanto lavoro, sia per costruire vincoli che per modificarli, elevando o abbassando le barriere di potenziale affinché venga liberata energia chimica. Inoltre, l’energia liberata può, cosa che spesso si verifica, propagarsi per effettuare lavoro che costruisce altri vincoli. Allora, il prodotto D potrà a sua volta diffondersi verso un canale trans-membrana e qui legarsi, cedendo parte dell’energia immagazzinata nella sua struttura mediante una rotazione interna ad uno stato di energia inferiore, e perciò sia legarsi al canale sia addizionare energia a quest’ultimo per aprirlo, in modo tale che gli ioni calcio entrino nella cellula. Sono così accoppiati un processo spontaneo e un processo non spontaneo. Il lavoro si propaga nelle cellule e spesso lo fa attraverso la costruzione di vincoli sulla liberazione di energia, che una volta rilasciata costituisce lavoro che si propaga per costruire ulteriori vincoli sulla liberazione di energia.»64

In termini di diversità molecolare e di diversità di altro tipo, quindi, secondo il grande studioso, l’universo e la biosfera progrediscono in un persistente possibile adiacente. Nuovi tipi di molecole, infatti, dotate a loro volta di nuove proprietà e in coppia con altri tipi di molecole, nascono senza sosta sul pianeta terra e forse nelle fredde nubi molecolari giganti, dove, cioè, nascono le stelle in gran parte delle galassie a spirale. Così, è Kauffman che parla, le nuove specie di molecole forniscono nuove reazioni esoergoniche ed endoergoniche, nuovi vincoli e nuove fonti de energia che sono parte della creatività che vediamo al di fuori delle nostre finestre. «Eppure, noi sappiamo a malapena come esprimere la natura di questa propagazione e di questa elaborazione dell’organizzazione e del processo, e siamo privi di indizi sull’esistenza di leggi generali che presiedono a tali processi auto-costruttivi in non equilibrio. Una legge del genere potrebbe essere la mia sospirata quarta legge della termodinamica per sistemi aperti e auto-costruttivi. Eravamo partiti dagli agenti autonomi, ma qui siamo andati oltre le biosfere. Quali sono le condizioni generali che consentono di fiorire a tali processi auto-costruttivi in non equilibrio? Le biosfere sono l’unico esempio? Che dire allora dell’evoluzione della geologia di un pianeta, di un sistema solare, di una galassia o dell’universo intero? Esistono modi per considerare l’emergenza di strutture che misurano e scoprono fonti di energia nei sistemi in non equilibrio, insieme con l’emergenza di strutture e processi che si accoppiano a fonti di energia, effettuano lavoro per costruire vincoli e propagano la liberazione vincolata dell’energia scoperta, tale che possano sorgere strutture, vincoli e processi più diversi, de novo, nel possibile adiacente dell’universo che si evolve?»65 A molte di queste domande tutt’ora non c’è una risposta che non sia soltanto un’ipotesi. Molto probabilmente, però, secondo Kauffman, l’universo rompe di continuo simmetrie generando novità di questo tipo, creando molecole peculiari o altre forme mai esistite prima. Addirittura, secondo Kauffman e Atkins,66 potrebbe esistere una legge generale per la biosfera e forse anche per l’universo intero lungo la traccia seguente. Una candidata quarta legge della termodinamica: «come tendenza media, le biosfere e l’universo creano novità e diversità quanto più rapidamente possibile senza distruggere l’organizzazione propagante accumulata, che è il fondamento e il tessuto connettivo da cui ulteriore novità viene scoperta e incorporata nell’organizzazione propagante.»67 Gli agenti autonomi, ovvero sistemi autoriproduttivi che eseguono uno o più cicli di lavoro collegando processi esoergonici ed endoergonici in una modalità ciclica che propaga l’unione di catalisi, di costruzione di vincoli e di organizzazione di processo, sono gli esempi più miracolosamente diversificanti di questo processo generale che avviene nel nostro universo in continuo dispiegamento e in continua trasformazione. Con riferimento a questa prospettiva, dunque, ci sia consentito, a questo punto, di chiudere il presente paragrafo facendo nostra la seguente riflessione di Kauffman tratta dal suo ultimo volume: «Now what a cell does is rather astonishing, and hard to pin down. Chemical processes happen that do work to construct constraints on the release of Energy, which, when released, does further work that builds a variety of things, including further constraints on the release of energy. This, crudely, is propagating process. In due course, this propagating process of constraint construction, the constrained release of energy in specific directions, the resulting building of structures and carrying out of processes, closes upon itself in a set of tasks such that the cell constructs a rough copy of itself. While we all know this is true, we seem not to have a language for it. The closest simple analogy I can think of is a river and river bed, where the river carves the bed, while the bed is a constraint on the flow of the river. The phenomena of propagating processes, with linked constraint construction and constrained release of energy, are right in front of us, but hard to describe so far, and hard to mathematize so far. It is this self propagating organization of processes, upon which the philosopher Immanuel Kant commented over 200 years ago, that we need to understand more fully, and for which we need to formulate a mathematical framework. Perhaps the reader knows of such a framework already. I confess I do not as jet. Nevertheless, cells carry out a propagating organization of process, overwhelmingly chemical, that remains poorly analyzed. Linked among cells, this propagating organization of process flows through and constructs the biosphere.»68

3. Semantica molecolare ed «informazione istruttiva»

Nei paragrafi precedenti abbiamo avuto modo di approfondire ulteriormente la definizione di agente autonomo elaborata da Kauffman. Ora tale definizione risulta alquanto ampliata poiché abbiamo realizzato che spesso gli agenti autonomi rilevano, misurano e registrano anche spostamenti dall’equilibrio di sistemi esterni, e che tali spostamenti sono impiegabili per estrarre lavoro. Al momento, dunque, sappiamo che gli agenti autonomi estraggono lavoro dal loro ambiente, propagando lavoro e costruendo vincoli. L’egretta, l’airone, l’Escherichia coli e qualsiasi altro essere vivente, però, fanno parte del mondo fisico tanto quanto gli atomi e forse più dei quark. Tuttavia, gli agenti autonomi che manipolano giorno per giorno il mondo a loro vantaggio e che ricevono dai loro linguaggi comuni gli attributi inevitabili dell’intenzionalità e della finalità sono anche, nella definizione divisata da Kauffman, semplici sistemi fisici con un’organizzazione peculiare di processi e di proprietà. «Se il concetto di agente autonomo fosse una definizione utile — o, meglio, adeguata — della vita stessa, allora gli agenti autonomi colmerebbero il divario che separa il dominio del meramente fisico da quel nuovo regno del meramente fisico dove tutti noi ci attribuiamo a vicenda uno scopo. La semantica entra in gioco con la finalità. Affinché ciò sia vero, non è necessario che i portatori di finalità — mi viene in mente proprio quello stesso batterio che si dirige contro corrente lungo il gradiente di glucosio — siano coscienti.»69 In precedenza abbiamo visto che, secondo il grande studioso, una biosfera è una co-costruzione auto-consistente di agenti autonomi, di modi di procurarsi da vivere e di procedure di ricerca (la mutazione e la ricombinazione), ma, al contempo, è anche «esplorazione comportamentale aperta» per gli agenti autonomi. Ebbene, Kauffman sostiene che questi ultimi, come individui e come collettività, hanno il know-how incarnato per guadagnarsi da vivere con i giochi naturali del loro mondo. «I mezzi per procurarsi da vivere ben esplorati e padroneggiati dagli agenti e dalle loro procedure di ricerca sono diventati i mestieri più occupati, le nicchie abbondanti nella biosfera. Nella totalità di questo sistema auto-costruttivo vi è un saper fare più ampio, che travalica quello di ogni singolo agente autonomo che si muove bramosamente nel suo microambiente. Eppure è chiaro che il saper fare è distribuito. Non esiste alcun agente autonomo, nessuno, che sappia come funziona l’intero sistema, non più di quanto oggi ciascuno di noi conosca il funzionamento di un sistema economico globale con le sue miriadi di interazioni, di transizioni commerciali, di frodi, speranze e frustrazioni. Che cos’è il know-how nel mondo? I filosofi distinguono tra sapere come (know-how) e sapere che (know-that). Io so come allacciarmi le scarpe e sto imparando come si suona la batteria jazz. Il sapere che riguarda proposizioni, più convenientemente proposizioni umane. Io so che la luna — così mi dicono — non è fatta di gorgonzola. So che la terra orbita intorno al sole e che è grossomodo sferica; che le sedie vengono usate per sedersi. Il sapere che implica le questioni standard e non standard della verità o della falsità di proposizioni riferite a stati del mondo. Forse anche i primati superiori addestrati a manipolare simboli semplici con evidente riferimento al mondo possono possedere il sapere che rispetto a proposizioni. Il sapere come, a differenza del sapere che, non implica proposizioni sul mondo. Esso riguarda la conoscenza procedurale, il nostro cavarcela nel mondo. Il ghepardo che insegue lo gnu e l’atleta di talento che salta in alto possiedono il know-how che permette loro queste azioni. Allora, un batterio sa come procurarsi da vivere nel proprio mondo? La mia risposta è, senza titubanze, sì, anche se io non attribuisco affatto a quest’ultimo una coscienza.»70 Si consideri, per esempio, la miriade di intricate attivazioni e disattivazioni di geni, di commutazioni metaboliche, di contrazioni meccaniche, di percezione del gradiente di glucosio, di azioni natatorie controcorrente per raggiungere concentrazioni maggiori di glucosio. Il batterio sa fare tutto ciò anche se non può raccontarlo. «Grazie a Dio esiste il know-how. Il sapere che non che è una sottile patina depositata sopra la facoltà del know-how, una facoltà vecchia quattro miliardi di anni e abbondante nella biosfera. Ma qualsiasi agente autonomo che prolifera da solo e con una congerie di altri agenti è anche favorito, sembrerebbe, da quel suo know-how. Se nei decenni a venire sintetizzeremo agenti autonomi ed essi co-evolveranno sotto il nostro sguardo rapito in pochi mesi o anni, in un ecosistema di modesta complessità, brulicante di nuove forme di vita, ebbene anch’essi sapranno come procurarsi da vivere nel modo che avranno creato mutuamente, cui si aggiungeranno le condizioni al contorno che noi, più o meno intelligentemente, imporremo loro. Posto in questi termini, il know-how è solo un altro modo di vedere le chiusure catalitiche che si propagano, i compiti di lavoro, la percezione, la registrazione e le azioni che noi oggi riconosciamo come intrinseci alle attività di agenti autonomi. Il know-how non è al di fuori di quell’organizzazione propagante: il know-how è l’organizzazione propagante.»71 Eccoci, dunque, inevitabilmente condotti ai confini della semantica. In on emergence, agency and organization, articolo del 2006, Kauffman, in collaborazione con P. Clayton, ha messo in luce il fatto che se esiste un agente autonomo, esiste necessariamente una semantica dal suo punto di vista privilegiato. Ebbene, tutto ciò è molto semplice. Una specie molecolare che sopraggiunge e penetra in un agente autonomo è: (I) cibo; (II) veleno; (III) un segnale; (IV) neutro; (V) altro. La molecola entrante è disgustosa oppure deliziosa. Agli occhi di Kauffman il grande passo concettuale verso il disgustoso, ovvero il delizioso, è inevitabile una volta che un agente autonomo viene posto in essere.72 Così, sostanzialmente, risulta possibile inferire che sono criteri darwiniani quelli a cui stiamo facendo riferimento: se è delizioso, infatti, questo tipo di agente sarà probabilmente più rappresentato sotto forma di discendenza, qualora fosse disgustoso, invece, non è altrettanto probabile che questa discendenza prospererà. A questo punto, dunque, a giudizio di Kauffman, se esistono il disgustoso ed il delizioso, allora vuol dire che ci stiamo avvicinando alla triade semiotica di C. S. Pierce: segno, significato, significante. «Che ci piaccia o meno, il gradiente di glucosio è un segno, un qualcosa che predice «maggiore quantità di glucosio lungo quella strada». Certo, tale molecola non è un simbolo arbitrario, non più di quanto la nube lo è per la pioggia. In quest’accezione limitata, i segni sono casualmente correlati con la cosa significata. Viceversa, la relazione tra la parola sedia e l’oggetto che essa significa, e su cui adesso sono seduto, è arbitraria. Ma possono i segnali chimici nelle comunità di batteri, di piante e di esseri umani essere arbitrarie dal punto di vista chimico-causale? In caso affermativo, possono «mere sostanze chimiche» essere segni a pieno titolo, per come li intendeva Pierce? Io sono convinto sia chiaro che una semplice chimica in un agente autonomo possa ospitare simboli e segni nelle accezioni più complete dei termini.»73 Si consideri, ad esempio, il celeberrimo codice genetico. Triplette di nucleotidi in una molecola di RNA rappresentano aminoacidi specifici, i quali verranno incorporati in una proteina. Nei dettagli della meccanica causale, infatti, abbiamo: le molecole di tRNA con il sito dell’anticodone e con il sito distante cui si attaccano gli aminoacidi, gli enzimi aminoacil-trasferasi che caricano il sito di legame dell’aminoacido di ciascun tRNA con l’aminoacido corretto tra i venti disponibili, il legame del sito caricato dell’anticodone dell’RNA con l’opportuna tripletta dell’RNA (una parola in codice) ed infine il ribosoma che scivola tra molecole caricate di tRNA adiacenti legando così gli aminoacidi nella catena polipeptidica in crescita la quale fluttua in una sua estremità nel citoplasma essendo ancorata dal ribosoma alla molecola di mRNA che nel frattempo viene tradotta. L’arbitrarietà del codice genetico è esemplificata dall’evoluzione di nuove molecole di tRNA le quali traducono un determinato codice di triplette di mRNA in un aminoacido differente. Come tutti sanno, Monod, più di trenta anni fa, ha focalizzato l’attenzione delle sue ricerche sulla gratuità dei processi cellulari mettendo così in luce il fatto che le relazioni tra le strutture chimiche che controllano la catalisi sono totalmente arbitrarie rispetto a quelle che la supportano. Lo stesso discorso vale per lo tRNA. Qui, infatti, il sito dell’anticodone è distante dal sito di legame dell’aminoacido e, in virtù di ciò, quale aminoacido sia caricato su una specifica molecola di tRNA è assolutamente arbitrario ed è controllato dall’enzima aminoacil-trasferasi, nonché dalla struttura del sito di legame per l’aminoacido sul tRNA: entrambi, quindi, possono essere modificati senza cambiare il meccanismo di accoppiamento codone-anticodone. Alla luce di tutto ciò, dunque, Kauffman, dopo aver più volte ribadito che la chimica ammette organizzazioni arbitrarie delle relazioni di controllo, così si esprime: «Sembra pienamente legittimo assegnare i concetti di segno, significato e significante al codice genetico. E sembra legittimo anche estendere quella nozione a gran parte dei raffinati meccanismi di trasmissione di segnali, chimici e di altra natura, tra agenti autonomi e all’interno di essi. Ne sono un esempio le piante. Esse, infestate da un particolare insetto, secernono un metabolita chimico secondario che allerta altri membri della stessa specie di un’infestazione d’insetti in atto, affinché questi attivino, a loro volta, metaboliti secondari di difesa anti-insetto.»74 In accordo ad una tesi formulata da J. Bronowski75 e formalizzata, poi, da M. Eigen, è ormai consuetudine affermare che, a livello biologico, il contenuto informazionale di una struttura data può permanere stabile solo se esso viene mantenuto nel tempo nei limiti di una determinata soglia che risulta essere inversamente proporzionale al tasso medio di mutazioni che si danno nella replicazione delle strutture individuali.76 In tal modo, il mantenimento della stabilità nella replicazione risulterebbe legato ad una sorta di confronto continuo ed incessante con il rumore. Tuttavia, in relazione a questa tesi, occorre rilevare il fatto che senza la utilizzazione creativa degli shifts casuali, vale a dire senza l’irrompere di mutazioni, non vi è, a livello degli organismi viventi, reale possibilità di raggiungere progressivamente strutture stabili di grado più elevato. Con riferimento alla formulazione originaria della tesi di Eigen, pertanto, come rilevano A. Carsetti ed altri studiosi, appare necessario distinguere due diversi tipi di stabilità. «Una stabilità statica connessa ad una pura replicazione dell’esistente ed una stabilità dinamica che vive nello sviluppo e che risulta legata a continui processi di trasformazione e di innovazione. A livello di questo ultimo tipo di stabilità, un organismo biologico può pervenire a realizzare un incremento progressivo della complessità che lo caratterizza a livello interno e, quindi, un arricchimento effettivo del proprio patrimonio informazionale, solo mediante la utilizzazione creativa di shifts casuali capaci di aprire la strada per giungere a concretizzare stadi più alti e prima imprevedibili di complessità stabile. È attraverso questa utilizzazione creativa che il gioco casuale della evoluzione appare venire a lanciare in avanti il processo della crescita, permettendo il delinearsi di nuovi equilibri, di nuove strutture, capaci di rivelarsi come dei veri e propri punti di accumulo per nuovi balzi, per brusche variazioni dei tassi di crescita della complessità interna; variazioni atte a condurre al superamento di antiche soglie per determinare, quindi, in loro vece, nuovi livelli di stabilità invariante.»77 Così, nel caso dell’evoluzione naturale, ci troviamo dinanzi a processi di convergenza e di divergenza intrinsecamente correlati. In altre parole, ci troviamo di fronte ad una sorta di processo dialettico nascosto in grado di tenere insieme permanenza ed innovazione da un lato e variabilità e specificità dall’altro, una dialettica vale a dire che, in ogni caso, vede come risultato ultimo del processo la formazione di «isole sempre più rarefate di negentropia». Questo rapporto dialettico tra stabilità e mutazione, dunque, ci consente di rivisitare le prime considerazioni di Monod circa la relazione esistente tra casualità ed invarianza, ma, al contempo, ci indica anche la necessità di un ampliamento della problematica monodiana: «La necessità, segnatamente, di giungere a distinguere una invarianza di superficie da una invarianza a livello profondo, connessa a precisi processi di crescita e di rivelazione a livello interno. Rispetto a questo ultimo tipo di invarianza non si pone più, soltanto, il problema di garantire la fedeltà della replicazione del messaggio originario, né quello di garantire, esclusivamente, tramite selezione, la permanenza di mutazioni inseritesi nel tessuto del messaggio e rivelatesi apportatrici di specifici vantaggi selettivi; ciò che appare necessario assicurare, perché una struttura data si replichi secondo invarianza profonda, è la possibilità, da un lato, della eliminazione sistematica del rumore non utilizzabile in modo costruttivo e, dall’altro, del delineamento di «aperture» di tipo non predeterminato che conducano ad una irruzione di rumore «creativo» in vista di un successivo allargamento delle basi semantiche del messaggio che viene trasmesso, della struttura stessa che si replica invariante.»78 Ovviamente, per far sì che questo tipo di processo possa darsi in modo ordinato, occorre l’esistenza di una attività continua di controllo, di auto-organizzazione e di selezione. Occorre, cioè, un rapporto di accoppiamento costante tra gli organismi che si replicano e l’ambiente circostante. Prima di tutto, infatti, è l’ambiente che concorre a determinare i confini del tasso medio di mutazioni che possono darsi all’interno di un determinato essere vivente ed è l’ambiente che interviene attraverso la selezione per assicurare una «direzione» all’evoluzione. Così, più un organismo risulterà altamente strutturato, più avrà l’opportunità di sfruttare intelligentemente ed in modo autoregolato le proprie risorse interne e più avrà possibilità di fare proprie le potenzialità di sviluppo che gli vengono offerte dalle mutazioni, ovverossia dalle «vie privilegiate del caso». D’altro canto, l’ambiente, a sua volta, dovrà intervenire per selezionare tra la molteplicità degli sviluppi possibili e per guidare la composizione di questi sviluppi in modo da garantire una crescita ed un adattamento equilibrati. «Ci troviamo, pertanto, a livello evolutivo, dinanzi ad una situazione dinamica che diviene e si trasforma per equilibri successivi. Da un lato, il mantenimento necessario della stabilità nella replicazione comporta la eliminazione di una molteplicità di vie del rumore. Questa espulsione dall’isola identica della replicazione di aperture e tensioni sottese, di aggressioni aleatorie interne ed esterne, costituisce un impoverimento oggettivo delle capacità espressive a livello di crescita e di rivelazione in senso profondo della struttura che si riproduce. Dall’altro, la utilizzazione creativa degli shifts casuali, l’inglobamento ordinato di mutazioni permettono una crescita reale delle strutture. Ma questa utilizzazione non potrà essere portata oltre una certa soglia se non si vuole che la struttura perda la propria identità, le proprie caratteristiche di stabilità interna, di controllo unitario ed equilibrato di un processo di rivelazione progressiva.»79 A questo punto, dunque, l’aporia che sembrava scaturire da quest’apparente contrapposizione si scioglie una volta che l’identità or ora accennata, in una situazione di sviluppo, non venga più intesa, in senso restrittivo, come identità di superficie, bensì come invarianza relativa alla coordinazione unitaria dei patterns profondi di crescita. In tal senso, quindi, proprio all’interno di questo rapporto dinamico tra superficie e profondità è possibile rintracciare il filo conduttore utile a farci comprendere come sia possibile, in effetti, conservare un’identità a carattere analitico nonostante il flusso di trasformazioni progressive (sintetiche) delle strutture informazionali. In questa luce, dunque, appare possibile pensare che «è, esattamente, nelle pieghe di questa connessione intrinseca che si cela l’origine, almeno per determinati aspetti, delle metamorfosi della Natura, la ragione o meglio una delle ragioni che guidano il continuo emergere del nuovo. Da un punto di vista effettivo […] il problema non è, pertanto, quello di chiarire entro quale soglia, in presenza di mutazioni, possa essere assicurata la replicazione invariante di una struttura data. Il problema è quello, in realtà, di spiegare in che termini e secondo quali modalità una crescita conservativa della struttura, atta a rivelare il tessuto profondo delle potenzialità che la sottendono, possa contemporaneamente giungere sia ad utilizzare il rumore in senso creativo, sia ad assicurare una invarianza minima di superficie, in maniera tale da permettere un’alternanza coordinata di periodi di convergenza e di divergenza. E’, precisamente, la esistenza di questa porta di Giano nei confronti del Caso che assicurerebbe, secondo la ipotesi che viene qui delineata, quel lancio in avanti dell’evoluzione a cui si è dianzi accennato. Non si tratta più, allora, di determinare soltanto i confini di una soglia, bensì di comprendere in qual modo questa soglia, pur operante, possa essere spostata continuamente in avanti, nel rispetto di precisi moduli connettivi e secondo gradi di complessità via via più elevati.»80 Ebbene, l’origine e le modalità di azione di questo spostamento appaiono direttamente riconducibili, per quanto concerne il modello teorico, nel cuore della dinamica propria dei processi di auto-organizzazione che sono alla base dei fenomeni della vita. Quando ci troviamo, infatti, dinanzi non a fenomeni di puro ordine né di pura casualità, bensì a fenomeni riguardanti forme di alta auto-organizzazione, ci troviamo, in realtà, al cospetto di una situazione intermedia tra la completa assenza di vincoli e il massimo della ridondanza. Nei fenomeni vitali, pertanto, l’organizzazione dovrebbe essere vista come un compromesso tra la massima variabilità e la massima specificità, un compromesso, vale a dire, che, in presenza di una struttura profonda sottostante il messaggio di superficie, verrà ad articolarsi secondo una dimensione dinamica capace di mutare nel tempo. «La dimensione propria di un processo di auto-organizzazione, di un processo, vale a dire, in base al quale il cambiamento dei moduli organizzativi non risulta diretto da un programma già predeterminato, bensì da un programma che nasce dall’incontro tra la esplicitazione di potenzialità interne al sistema in evoluzione, da un lato, e la rivelazione (a seguito anche del realizzarsi di una precisa azione di guida) di principi generativi che vivono, in modo sotteso, nella realtà esterna al sistema, dall’altro. Tale processo potrà comportare in linea di principio, un progressivo decremento delle condizioni di possibile alta ridondanza proprie dello stato iniziale, sotto l’effetto di una molteplicità di fattori, ed un correlato e successivo incremento della variabilità potenziale a livello simbolico. Ciò potrà permettere, quindi, un ampliamento susseguente del raggio d’azione dei fattori regolativi interni, collegato all’apparizione di nuovi vincoli, di forme rinnovate di organizzazione. In questo modo ad un aumento della variabilità verrà a corrispondere un aumento della specificità, una diminuzione del disordine. E ciò senza cadere in paradossi o contraddizioni. E’, esattamente, a questo pressoché contestuale aumento della variabilità e della specificità, che facciamo riferimento quando parliamo di apertura dall’interno di un sistema accoppiato, dotato di moduli auto-organizzativi. In altre parole, nel momento in cui si realizzano passaggi di soglia le basi della variabilità si ampliano e si giunge, altresì, nel contempo, a porre le condizioni per realizzare fenomeni di organizzazione estremamente complessi.»81 In effetti, oggi sappiamo come l’entropia possa aumentare e contemporaneamente il disordine diminuire quando il numero dei microstati non risulta costante: in particolar modo quando l’incremento di questo numero avviene più rapidamente di quello di S (l’entropia). In tal senso, allora, può essere rivisitata la tesi originale di von Weizsäcker che mette in stretta relazione l’incremento di informazione e l’incremento di entropia: l’ampliarsi della variabilità è, infatti, condizione necessaria, a livello semantico, per il realizzarsi di una «complessificazione» del sistema.82 Così, come tutti sanno, affinché si realizzi un concreto processo di auto-organizzazione occorre la presenza di un sistema accoppiato sorgente-osservatore che risulti caratterizzato da un «dialogo informazionale» continuo tra le due componenti or ora accennate, nonché dalla capacità effettiva della sorgente di aprirsi al proprio interno articolandosi così secondo una precisa dimensione semantica in grado di snodarsi per livelli gerarchici successivi. Naturalmente, il legame tra evoluzione ed entropia deve essere visto in riferimento al divenire reale di biosistemi a carattere complesso, dotati di codice interno, di apparati specifici di regole e di capacità di auto-programmazione. Occorre, in questo senso, andare oltre la caratterizzazione data da Shannon del concetto di informazione: «Il punto di fondo è che a livello biologico gli organismi sono determinati da un insieme di vincoli, di codici, di programmi. L’informazione che risiede negli organismi a livello profondo specifica, al tempo stesso, la loro struttura. Dobbiamo, pertanto, seguendo Layzer, individuare uno spazio degli stati avente carattere biologico e definire, conseguentemente, microstati o eventi elementari che risultino determinati da vincoli regolativi, da regole di produzione, da punti limite ecc. La variabilità e la specificità dovranno, quindi, essere definite rispetto a questo tipo particolare di microstati; ad eventi elementari, vale a dire, che non possono essere identificati […] tramite il riferimento ingenuo a frequenze o a vincoli di superficie; che debbono, al contrario, essere definiti nella loro oggettività, nel quadro del rapporto dialettico esistente tra osservatore e sorgente, tra ipotesi misure e falsificazioni, in riferimento, segnatamente, alla possibilità stessa di innescare, tramite la guida offerta dalle misure, un processo di liberazione della informazione profonda e, quindi, il rivelarsi progressivo di strutture specifiche, collegate al processo suddetto. Qui possiamo individuare uno dei nodi cruciali del processo della analisi. La nostra capacità di arrivare a distinguere microstati atti a dar conto dell’articolarsi di una funzione-entropia associata a specifici vincoli regolatori a carattere biologico, può permetterci di delineare una spiegazione, in generale, dei processi di soglia e di auto-organizzazione che sono alla base di quel particolare tipo di struttura vivente rappresentato dal DNA. Una molecola, vale a dire, che possiede al suo interno le regole preposte alla piena espressione del proprio programma, nonché le regole per mutare queste stesse regole.»83 Tale molecola, dunque, possiede una capacità che risulta adeguata ad elaborare strutture potenzialmente infinitarie, quelle strutture, vale a dire, che risultano essere determinanti per la trasmissione dell’informazione, trasmissione che si attua con la replicazione nel finito, con la trasmissione delle regole relative alla replicazione della struttura. In questo modo, allora, il DNA non è sorgente infinitaria in senso attuale, bensì costituisce la base per la trasmissione di quantità finite, ma adeguate, di informazione relative alla edificazione per replicazione possibile di strutture potenzialmente infinitarie. «Occorre, in altre parole, rendersi conto, innanzitutto, che non è possibile calcolare l’informazione biologica così come avviene per il caso della trasmissione dei segnali. Non possiamo confondere eventi macroscopici o macrostati con microstati. Né basta tener conto dell’intervento dell’attività della misura distinguendo informazione libera ed informazione legata, quando, poi, non si è in grado di individuare la realtà intrinseca dei microstati biologici e, quindi, il tipo di vincoli specifici ad essi connessi. È necessario, al contrario, individuare i livelli della informazione profonda, là dove si nascondono i vincoli regolatori; è necessario, altresì, dar ragione del rapporto che lega l’osservatore alla sorgente ed in particolare del nesso che intercorre tra i vari livelli a cui si disloca il contenuto della informazione. Ciò permetterà di definire in modo corretto i microstati con riferimento alla evoluzione reale della sorgente ed alla apparizione progressiva di nuovi vincoli in presenza di un aumento della variabilità. Come giustamente nota Jaynes entrare nei livelli profondi della sorgente, nel nostro caso del DNA, è possibile solo con l’aiuto di telescopi-modelli molto sofisticati, con l’aiuto di misure di informazione e di ipotesi non predeterminate in modo rigido. Capaci, occorre aggiungere, di dar ragione del complesso intreccio esistente tra informazione di superficie ed informazione di profondità. Di dar conto, in altri termini, di come il rumore, generato innanzitutto a livello interno, possa essere sfruttato in modo creativo e divenire fattore di innovazione. Tutto ciò comporta che i microstati non potranno essere considerati come semplici lettere di un alfabeto, come entità ancorate a vincoli di superficie a carattere monodimensionale, incapaci di dar conto della dialettica esistente tra sorgente ed osservatore. Al tempo stesso la creatività del sistema, il suo carattere semantico non possono scaturire […] da semplici aggiunte di nuovi stati-lettere, bensì dal manifestarsi di processi di riorganizzazione globale che si realizzano tramite scissione interna degli atomi, apertura di punti fissi, individuazione di nuovi attrattori. Il problema reale è quello di capire come la macchina auto-poietica giunga ad ampliare, in modo autonomo, la base della propria variabilità interna in modo da porre le basi per il realizzarsi di un bricolage evolutivo, storicamente determinato che si snoda lungo il passaggio da un elemento all’altro di una gerarchia di livelli, secondo moduli non predeterminati in via completa.»84 Il problema reale, dunque, è quello di capire come l’osservatore possa, tramite le sue misure, porsi come «fattore di guida» per il rivelarsi delle potenzialità nascoste, ovvero per l’espressione piena dell’autonomia propria della fonte. Per poter realizzare tale azione di guida, quindi, l’osservatore dovrà possedere una teoria adeguata della complessità, ossia dovrà dotarsi di strumenti che non siano il frutto di proiezioni antropomorfiche, che risultino, bensì, oggettivi: capaci, ad esempio, di dare nascita ad un processo concreto di aumento della variabilità. Quanto abbiamo fin qui accennato, dunque, può essere sommariamente riassunto dicendo che un processo di auto-organizzazione atto a determinare la crescita «qualitativa» della complessità propria del sistema, può darsi effettivamente solo nel caso in cui viene garantita la presenza operante di alcuni fattori di fondo: «(1) il carattere accoppiato del sistema globale: la presenza, vale a dire, di una interazione continua tra sorgente ed osservatore; (2) l’articolarsi intrecciato di una molteplicità di processi di riflessione, invenzione e selezione; (3) la presenza di un apparato di istruzioni, di un codice autonomo interno alla sorgente, atto a far si che la sorgente, nel mentre che esprime se stessa, specifichi, nel medesimo tempo, la propria struttura; (4) uno sviluppo autonomo del sistema che risulti intessuto in accordo alle caratteristiche di un vero e proprio bricolage evolutivo; (5) la presenza, da un lato, di potenzialità latenti a livello della sorgente, di fattori di liberazione possibile, e la presenza, dall’altro, di programmi specifici a livello di osservatore, di fattori vale a dire di intervento, riflessione e coagulo.»85 Nel quadro di questa apertura a carattere semantico, dunque, a nostro giudizio, si profila l’importanza di possedere una teoria dell’informazione che non si incentri soltanto sulla determinazione di particolari distribuzioni di probabilità, da un lato, e sull’accertamento delle condizioni di ergodicità, dall’altro, ma che, diversamente, definisca il contenuto di informazione di «strutture-oggetti» determinati in termini della complessità degli oggetti stessi, della quantità di informazione necessaria per calcolare e generare le strutture sotto esame. Ebbene, il calcolo shannoniano «risulta legato al disegno di un programma stocastico che consente la ricostituzione, a livello di superficie, della struttura frantumata, che permette, cioè, di ristabilire i vincoli perduti in accordo a misure proposizionali e nel quadro di un processo che si articola in un ambito a carattere strettamente monodimensionale. In un quadro, vale a dire, che non prende in considerazione l’ampliamento e la trasformazione autonoma del tessuto delle complessioni, sulla base dell’intervento di fattori di auto-organizzazione. Che non prevede, al limite, il sorgere stesso di tale ampliamento a seguito della interazione reale sistema-osservatore. L’ordito concettuale fornito da Shannon non consente di analizzare i punti campioni oltre il livello di superficie. Essi vengono definiti, per di più, in relazione ad una rete di vincoli a carattere markoviano che limita, a sua volta, le possibilità relazionali di tali punti, nonché il ventaglio di scelta ad essi relativo.»86 Questa problematica è ben presente alla mente di Kauffman e anima una parte non piccola dei suoi pensieri da circa un decennio, da quando cioè, come abbiamo dinanzi mostrato, egli ha deciso di intraprendere un nuovo sentiero teorico, oggi ancora provvisorio ed incompleto; ci stiamo riferendo qui all’affascinante congettura, proposta nel quinto capitolo di Esplorazioni Evolutive e successivamente approfondita in alcuni articoli scientifici, di costruire una Fisica della Semantica (o meglio una semantica molecolare) andando così oltre la tradizionale teoria dell’informazione elaborata da Shannon e Wiener, una teoria, vale a dire, basata ancora su un tipo di matematica troppo semplice e quindi incompatibile con la complessità dei fenomeni vitali. Nel suo volume, dunque, il grande studioso americano così si esprime: «Il calcolo, ovvero l’elegante teoria dell’informazione di Claude Shannon, ha sempre riguardato la riduzione dell’incertezza statistica della sorgente di un insieme di simboli. In nessun punto del nucleo del lavoro di Shannon sulla codificazione e sulla trasmissione di informazione entra in gioco il significato, la semantica, dell’informazione. La mia non è una critica e la teoria è ampiamente conosciuta e apprezzata. Tuttavia, nella concezione di Shannon vi è appena un cenno di semantica, ovvero che essa risieda nel decodificatore. Non posso accettare la concezione di Shannon almeno che il decodificatore non sia un agente autonomo. In caso contrario, il decodificatore non fa altro che trasformare una stringa di bit trasmessi lungo un canale di comunicazione in una dinamica di tipo diverso, discreta o continua: per esempio un insieme di ciotole colme d’acqua viene svuotato attivando una macchina che apre in determinati modi le valvole tra ciotole e mondo esterno. Gli schemi di drenaggio delle ciotole a fronte della ricezione dei messaggi, in forma di stringa binaria inviati lungo un canale di comunicazione, costituiscono la decodificazione. Ma se il ricevente è un agente autonomo, un batterio per esempio, e la molecola in arrivo è un segno-simbolo di un paramecio o di un’ameba incombenti, e il batterio si allontana nuotando perché vuole evitare di diventare il loro pasto, allora quella sequenza di eventi sembra carica di semantica. Se solo il batterio potesse dirci: «Hai visto quel bestione di paramecio che mi veniva addosso? Mi ci sono imbattuto prima, ma mi sono nascosto sotto quel masso e lui non ha mai percepito la mia presenza! Sono tornato a casa sano e salvo. Martha, passami altro glucosio per piacere». […] Non correte, non accusatemi subito di antropomorfismo. Io pure sono consapevole dei rischi, fra cui la pretesa comune che, in linea di principio, possiamo sempre tradurre un «discorso intenzionale» in una spiegazione causale che predice appieno gli eventi in questione. Pazienza! Non solo siamo incapaci di prestabilire lo spazio di configurazioni di una biosfera e di predirne gli sviluppi, ma non possiamo nemmeno tradurre — nel senso di condizioni necessarie e sufficienti — il discorso giuridico in discorso intenzionale normale, e men che meno il discorso giuridico del Signor Henderson giudicato colpevole di assassinio in un discorso di fisica riguardante forme di onde sonore monitorate e masse descritte lungo linee dello spazio-tempo. Proviamo, dunque, per un momento ad essere semplici. La semantica del disgustoso — delizioso che entra in un agente autonomo semplice — in un batterio primitivo, per esempio — è legata al know-how incorporato di quell’agente, alla sua capacità o incapacità di procurarsi da vivere nel suo mondo. La semantica di un evento è un sottoinsieme dell’insieme, completamente modellato e dipendente dal contesto, di implicazioni causali dell’evento, o del segnale, in questione.»87 Da queste parole, pertanto, è possibile evincere facilmente i limiti della teoria dell’informazione classica. Secondo la concezione shannoniana, infatti, l’entropia massima possiede una valenza esclusivamente monodimensionale.88 Il suo modello astratto è rappresentato da un box ideale in cui si mescolano casualmente lettere-simboli. Tuttavia, come si è detto, a livello biologico le cose risultano essere ben diverse poiché esistono processi di apertura in serie connessi al rivelarsi di microstati via via differenti. Di qui la necessità, messa in luce contemporaneamente ed in modo indipendente da diversi studiosi, di individuare, caso per caso, le misure di complessità corrette, i livelli effettivi della randomness e l’articolazione reale dei livelli logici di volta in volta in questione. In questo quadro, allora, occorre definire le condizioni di massima entropia in riferimento non solo all’informazione di superficie, bensì anche alla intelaiatura propria della informazione di profondità. «A livello biologico non è, ad esempio, possibile fornire direttamente informazione-negentropia al sistema tramite sequenze di simboli macroscopici a carattere istruttivo. Si può parlare al sistema solo nelle condizioni del suo linguaggio interno e nel rispetto della sua autonomia. Ma ciò implica l’accertamento previo, di volta in volta, a livello probabilistico ed informazionale, della natura effettiva dei microstati che concernono il sistema stesso, nonché delle condizioni reali della randomness che lo caratterizzano. Occorrerà, in altre parole, possedere una teoria adeguata delle regole, dei vincoli, del gioco dei possibili che presiedono, dall’interno, all’articolazione espressiva dell’informazione profonda.»89 In questo spirito, dunque, proseguiremo la presente trattazione mettendo in luce come, in pressoché totale accordo con le parole di Carsetti, Kauffman, in collaborazione con altri studiosi, nell’articolo del 2008 dal titolo Propagating organization: an enquiry, offra alcuni spunti molto interessanti per quanto riguarda la possibilità di elaborare una nuova teoria dell’informazione applicabile all’evoluzione e alla biosfera, una teoria della «informazione biologica», vale a dire, che fa appello immediatamente ad una semantica di tipo funzionale capace altresì di offrire un adeguato modello interpretativo per le strutture infinitarie come, ad esempio, la molecola del DNA. Pertanto, nella parte iniziale del suo articolo il grande studioso americano così scrive: «Shannon information require that a prestated probability distribution (frequency interpreted) be well stated concerning the message ensemble, from which its entropy can be computed. But if Darwinian preadaptations cannot be prestated, then the entropy calculation cannot be carried out ahead of time with respect to the distribution of features of organisms in the biosphere this, we believe, is a sufficient condition to state that Shannon information does not describe the information content in the evolution of the biosphere. There are further difficulties with Shannon information and the evolving biosphere. What might constitute the «Source»? Start at the origin of life, or the last common ancestor. What is the source of something like «messages» that are being transmitted in the process of evolution from that Source? The answer is entirely unclear. Further, what is the transmission channel? Contemporary terrestrial life is based on DNA, RNA, and proteins via the genetic code. It is insufficient to state that the channel is the transmission of DNA from one generation to the next. Instead one would have to say that the actual «channel» involves successive life cycles of whole organisms. For sexual organisms this involves the generation of the zygote, the development of the adult from that zygote the pairing of that adult with a mate, and a further life cycle. Hence, part of one answer to what the «channel» might be is that the fertilized egg is a channel with the Shannon information to yield the subsequent adult. But it has turned out that even if all orientations of all molecules in the zygote were utilized there is not enough information capacity to store the information to yield the adult. This move was countered by noting that, if anything, development is rather more like an algorithm than an information channel […] . In short, a channel to transmit Shannon information along life cycles does not exist, so again Shannon information does not seem to apply to the biosphere. It seems central to point out that the evolution of the biosphere is not the transmission of information down some channel from some source, but rather the persistent on going, co-construction, via propagating organization, heritable variation and natural selection, of the collective biosphere. Propagating organization requires work. It is important to note that Shannon ignored the work requirements to transmit «abstract» information, although it might be argued that the concept of constraints is implicit in the restrictions on the messages at the Source. While we mention this, we have no clear understanding physically of what such constraints are.»90 Come abbiamo mostrato nel primo paragrafo, fu Schrödinger ad introdurre in biologia la meccanica quantistica, la chimica ed il concetto d’informazione (a livello embrionale). Egli fu l’antesignano della nostra concezione del DNA e del codice genetico poiché tradusse l’idea del dire nell’idea del codificare. Come tutti sanno, la sostanza del gene, secondo lui, doveva essere una forma di cristallo aperiodico e la forma dell’aperiodicità avrebbe dovuto contenere una sorta di codice microscopico capace di controllare l’ontogenesi. A questo punto, però, è possibile domandarsi: in che senso un cristallo aperiodico «codifica molta informazione»? Schrödinger si è limitato ad affermare che il solido aperiodico può contenere un microcodice; egli, quindi, a giudizio di Kauffman, non ha colto fino in fondo la portata semantica di un tale processo. «We believe Schrödinger was deeply correct, and that the proper and deep understanding of his intuition is precisely that an a-periodic solid crystal can contain a wide variety of micro-constraints, or micro-boundary conditions, that help cause a wide variety of different specific events to happen in the cell or organism. Therefore we starkly identify information, which we here call «instructional information» or «biotic information», not with Shannon, but with constraints or boundary conditions. The amount of information will be related to the diversity of constraints and the diversity of processes that they can partially cause to occur. By taking this step, we embed the concept of information in the ongoing processes of the biosphere for they are causally relevant to that which happens in the unfolding of the biosphere. We therefore conclude that constraints are information and, as we argue below, information is constraints which we term as instructional or biotic information to distinguish it from Shannon information. We use the term «instructional information» because of the instructional function this information performs and we sometimes call it «biotic information» because this is the domain it acts in, as opposed to human telecommunication or computer information systems where Shannon information operates. This step, identifying information as constraints or boundary condition, is perhaps the central step in our analysis. We believe it applies in the unfolding biosphere and the evolving universe, expanding and cooling and breaking symmetries, that we will discuss below. Is this interpretation right? It certainly seems right. Precisely what the DNA molecule, an a-periodic solid, does, is to «specify» via the heterogeneity of its structural constraints on the behaviour of RNA polymerase, the transcription of DNA into messenger RNA. Importantly this constitutes the copying or propagating of information. Also, importantly, typically, the information contained in a-periodic solids requires complex solids, i. e., molecules, whose construction requires the linking of spontaneous and non-spontaneous, exergonic and endergonic, processes. These linkages are part of the work cycles that cells carry out as they propagate organization. […] The working of a cell is, in part, a complex web of constraints, or boundary conditions, which partially direct or cause the evens which happen. Importantly, the propagating organization in the cell is the structural union of constraints as instructional information, the constrained release of energy as work, the use of work in the construction of copies of information, the use of work in the construction of other structures, and the construction of further constraints as instructional information. This instructional information further constraints the further release of energy in diverse specific ways, all of which propagates organization of process that completes a closure of tasks whereby the cellreproduces.»91 Ecco allora che una nuova concezione di informazione viene ad essere delineata, una concezione, vale a dire, che fa appello immediatamente all’originale intuizione secondo cui, in una cellula vivente, un insieme di vincoli guida il flusso di energia libera, producendo altresì lavoro termodinamico. Stando così le cose, quindi, proprio nella circolarità di concetti codefiniti come, ad esempio, quello di informazione, di vincoli, di energia, di cicli di lavoro termodinamico, di chiusura di compiti e di organizzazione propagante, dunque, è possibile comprendere pienamente la definizione di agente autonomo: un sistema riproduttivo che esegue almeno un ciclo di lavoro termodinamico, ossia l’organizzazione di materia, energia e instructional information cui possono essere attribuite finalità quali, appunto, la capacità di agire a proprio vantaggio e la riproduzione. In questa definizione, pertanto, pietre e sedie non risultano essere agenti autonomi, mentre le cellule viventi lo sono; in ogni istante, infatti, gli agenti autonomi manipolano davvero il mondo a proprio vantaggio, si pensi, ad esempio, ad una coppia di uccelli che costruiscono il nido. «Una volta che abbiamo gli agenti autonomi e la differenza fra delizioso e disgustoso, sembra proprio che la semantica faccia il suo ingresso nell’universo allorché gli agenti coevolvono e agiscono a proprio vantaggio l’uno rispetto all’altro in una biosfera che si dispiega.»92 A questo punto è possibile chiedersi: l’informazione è una costante come, ad esempio, la velocità della luce? La risposta di Kauffman è negativa. La definizione di informazione, infatti, secondo il grande studioso, è relativa e dipende dal contesto in cui viene considerata: la nozione di instructional information, ad esempio, risulta essere proficua per quanto concerne i sistemi biologici nella stessa misura in cui l’informazione di Shannon è efficace per il canale ingegneristico di telecomunicazione e quella di Kolmogorov è utile per studiare la compressione dell’informazione relativa alle macchine di Turing. «Just as Shannon defined information in such a way a to understand the engineering of telecommunication channels, our definition of instructional or biotic information best describes the interaction and evolution of biological systems and the propagation of organization. Information is a tool and as such it comes in different forms. We therefore would like to suggest that information is not an invariant but rather a quantity that is relative to the environment in which it operates. It is also the case that the information in a system or structure is not an intrinsic property of that system or structure; rather it is sensitive to history and environment . […] Information is about material things and furthermore is instantiated in material things but is not material itself. Information is an abstraction we use to describe the behaviour of material things and often is thought as something that controls, in the cybernetic sense, material things. So what do we mean when we say the constraints are information and information is constraints […] . «The constraints are information» is a way to describe the limits on the behaviour of an autonomous agent who acts on its own behalf but is nevertheless constrained by the internal logic that allows it to propagate its organization. This is consistent with Hayle’s […] description of the way information is regarded by information science: «It constructs information as the site of mastery and control over the material world.» She claims, and we concur, that information science treats information as separate from the material base in which it is instantiated. This suggests that there is nothing intrinsic about information but rather it is merely a description of or a metaphor for the complex patterns of behaviour of material things. In fact, the key is to what degree information is a completely vivid description of the objects in question.»93 La possibilità di comprendere la natura dell’informazione, come abbiamo già ampiamente mostrato, la si deve all’originale formulazione dell’informazione di Shannon che, in un ormai celebre articolo del 1948, così scriveva: «The fundamental problem of communication is that of reproducing at one point either exactly or approximately a message selected at another point. Frequently the messages have meaning; that is they refer to or are correlated according to some system with certain physical or conceptual entities. These semantic aspects of communication are irrelevant to the engineering problem. The significant aspect is that the actual message is one selected from a set of possible messages. The system must be designed to operate for each possible selection, not just the one that will actually be chosen since this is unknown at the time of design. If the number of messages in the set is finite then this number or any monotonic function of this number can be regarded as a measure of the information produced when one message is chosen from the set, all choices being equally likely.»94 Agli occhi di Kauffman, tuttavia, questa visione dell’informazione risulta essere riduttiva e parziale specialmente se applicata in ambito biologico: ecco, dunque, che alcuni problemi vengono immancabilmente ad emergere. «The first is that the number of possible messages is not finite because we are not able to prestate all possible pre-adaptations from which a particular message can be selected and therefore the Shannon measure breaks down. Another problem is that for Shannon the semantics or meaning of the message does not matter, whereas in biology the opposite is true. Biotic agents have purpose and hence meaning. The third problem is that Shannon information is defined independent of the medium of its instantiation. This independence of the medium is at the heart of a strong AI approach in which it is claimed that human intelligence does not require a wet computer, the brain, to operate but can be instantiated onto a silicon-based computer. In the biosphere, however, one cannot separate the information from the material in which it is instantiated. The DNA is not a sign for something else it is the actual thing in itself, which regulates other genes, generates messenger RNA, which in turn control the production of proteins. Information on a computer or a telecommunication device can slide from one computer or device to another and then via a printer to paper and not really change, McLuhan’s «the medium is the message» aside. This is not true of living thing. The same genotype does not always produce the same phenotype.»95 E più avanti il grande studioso americano aggiunge: «According to the Shannon definition of information, a structured set of numbers like the set of even numbers has less information than a set of random numbers because one can predict the sequence of even numbers. By this argument, a random soup of organic chemicals has more information that a structured biotic agent. The biotic agent has more meaning than the soup, however. The living organism with more structure and more organization has less Shannon information. This is counterintuitive to a biologist’s understanding of a living organism. We therefore conclude that the use of Shannon information to describe a biotic system would not be valid. Shannon information for a biotic system is simply a category error. A living organism has meaning because it is an autonomous agent acting on its own behalf. A random soup of organic chemicals has no meaning and no organization. We may therefore conclude that a central feature of life is organization — organization that propagates.»96 Stando così le cose, dunque, per cogliere in profondità la complessità del bios, secondo Kauffman, non basta un sistema linguistico (o a limite un puro sistema di programmi), diversamente, questi elementi devono essere legati al significato poiché la vita, come ha ben messo in luce Monod, è teleonomia, ovvero progetto autonomo che si dà da sé il proprio telos. In tale prospettiva, quindi, lo studio del significato nell’ambito dei processi di auto-organizzazione costituisce la vera e propria chiave d’ingresso scientifica all’interno della complessità dei sistemi biologici. Ebbene, in questo spirito, Kauffman, nelle sue recenti pubblicazioni, ha messo in luce lo stretto legame che inevitabilmente viene ad instaurarsi in ambito biologico tra informazione semantica, da un lato, e vincoli, dall’altro: la semiosi, infatti, sotto certi aspetti, costituisce proprio un caso specifico dell’informazione intesa come restrizione. E’, quindi, possibile domandarsi: quali sono le condizioni fisiche minime affinché si manifesti questo misterioso processo di correlazione che lo studioso definisce semiosis? Ed inoltre, se non c’è alcuno spirito vitale, come si genera allora la teleonomia nei processi biologici? «Consider an agent that is confronted by molecules in its environment, which constitute yuck or yum. To respond to these environmental features, the agent, assumed to be bounded […], must also have yuck and yum receptors, capable in the simplest case of recognizing molecules of yuck or yum, and responding appropriately by avoiding yuck and eating yum. Assume such molecular machinery exists in the agent. They of course exist in prokaryotic and eukaryotic cells. We wish to say that the agent confronting yuck or yum receives information about yuck or yum. This appears to constitute the minimal physical system to which semiotic information might apply. And it is worth noting that the meaning or semiotic content of the yuck and yum molecules is built into the propagating organization of the cell. The cell, we want to say, has embodied knowledge and know-how with respect to the proper responses to yuck and yum, which was assembled for the agent and its descendants by heritable variation and natural selection. The existence of yuck and yum as semiotic signs is sub-case of constraint as information. How does the agent detect yuck? A concrete case would be that a yuck molecule binds a yuck receptor, constraining the receptor’s motions, which in turn acts as a constraint in unleashing a cell signalling cascade leading to motion away from yuck. Further, if yuck is present below a detection threshold, it will not be detected by the agent. Hence that threshold, and the receptor itself, act as a constraints partially determining the behavior of the agent in fleeing or not fleeing.»97 Secondo questa prospettiva, dunque, batteri e amebe manifestano già forme di apprendimento poiché sono dotati di recettori che si adattano su un livello costante di un certo ligando-segnale e che percepiscono un cambiamento dal livello presente. Qui, non si può ancora parlare di associazione tra uno stimolo condizionato più o meno arbitrario ed uno stimolo non condizionato, tuttavia, agli occhi di Kauffman, risulta possibile immaginare una chimica che realizzi quest’ultimo. Così, nella misura in cui si suppone che i neuroni proliferino e formino nuove connessioni sinaptiche, mediando la connessione tra stimolo condizionato e stimolo non condizionato, allo stesso modo potrebbe esistere, è il grande studioso che parla, una chimica complessa, ad esempio schemi molto complessi di sintesi dei carboidrati alimentati da insiemi complessi di enzimi la cui attività è modulata da quegli stessi carboidrati differenti, come nel caso del metabolismo attuale dei carboidrati. Uno schema del genere certamente potrebbe sperimentare alla cieca schemi varianti di sintesi fino a formare una rete auto-alimentante che collega i carboidrati, gli enzimi e determinati recettori proteici (mediatori tra stimolo non condizionato e stimolo condizionato) che conservano quel legame mediante anelli di retroazione positiva. Al di là di tali ipotesi, però, un aspetto emerge con forza da queste riflessioni: le funzioni cognitive dei sistemi molecolari semplici, ovverossia di sistemi privi di cellule nervose. Pertanto, la capacità dei batteri e delle amebe di percepire i cambiamenti esterni tramite recettori e di agire a proprio vantaggio nell’ambiente in cui vivono testimonia, in modo inequivocabile, il fatto che la vita è significato e cognizione. Ebbene, tutto ciò è traducibile anche a livello molecolare: «One can construct an underlying set theoretical interpretation for yuck and yum semantics in two equivalent ways: the first posits a set of instances, and a set of properties to which each instance is assigned. The second posits a set of instances and detectors do the job. If the second stance is taken, then detectors, yuck and not yuck, suffice and no extension beyond instructional information is required. If the second stance suffices, we want to say not only that constraints are information but also that information is constraints. We recognize that this second is arguable and do not analyze this issue further here. Semiotic information can not itself embody agentness, for it has no agency; but identified agents can be observed to respect the semiotic interpretation like yuck and yum. This inspectable behaviour provides the opportunity to attribute constraint-directed behaviour to the agent organism. Another important point in this attempt to understand propagating organization is that the semiotic behaviour can identify a source of free energy, yum in this case, from which work can be extracted and propagate in the cell. This behaviour is part of a theory that unifies matter, energy, information and propagating organization. […] A wide variety of molecules might bind to the yum receptor with modest affinity, hence mimic true yum molecules. So the yum receptor can be fooled. This might allow another agent to emit a poison that mimics the yum molecule, fools the receptor, and leads to the death of the agent. So evolves the biosphere. Now ask, can a Shannon channel be fooled? Clearly noise can be present in the channel. Due to noise a 1 value can replace a 0 value in the constrained sense of 1 and 0 as subsets of the physical carriers of 1 and 0. But the Shannon channel cannot be fooled: fooling is a semantic property of detectors, hence not present in a Shannon channel. Therefore, while one might be tempted to measure the amount of semiotic information using a Shannon-like approach, the fact that semiosis in an organism can be fooled suggests that a symbol based Shannon move is inappropriate.»98 E più avanti Kauffman e colleghi così concludono la loro argomentazione: «We conclude that semiotic information in molecular agents such as organisms is a special case of information as constraint. For semiotic information to be about something, and to be extracted, it appears that a constraint must be present in one or more variables that are themselves causally derived from that which the information is about. Like the threshold level of yum needed for detection, to use the information, the extracted semiotic information must do work on some system. That work might copy the information, for example into a record, or might construct constraints on the release of energy which is further work. Here, semiotic information becomes part of propagating organization. We comment that in standard semiotic analyses with human agents and language, there are three elements to semiotic information, namely: 1) The subject of the information or the agent being informed. 2) The object of the information or what the information is about. 3) The possibly arbitrary, sign or symbol referring to the object. With Monod in Chance and Necessity we add that allosteric chemistry allows arbitrary molecule to cause events. If we wish to call such molecules «symbols» that «refer to» «yum», the standard semiotic analysis just noted applies to molecular autonomous agents. Note that Monod’s example is broader than DNA, RNA and proteins. It is the general arbitrariness of allosteric chemistry that allows arbitrary molecules to cause events. Information is thus broader than coding.»99 Nei prossimi paragrafi vedremo come quello di informazione semantica sia un concetto molto più ampio rispetto a quello di codice genetico: in un sistema vivente, infatti, la realtà profonda (livello semantico) non solo regola ma addirittura genera l’informazione di superficie (livello sintattico). Per il momento però appare opportuno ritornare a Kauffman ed, in particolare, alla sua nozione di informazione biologica (biotic information) intesa come informazione istruttiva (instructional information or constraint), ovvero come quell’informazione capace di causare eventi sempre nuovi nella biosfera. «For information to be united with matter and energy, information must be part of the physical unfolding of the universe. […] What is required is that, in the non-equilibrium setting, a displacement from equilibrium that is a source of free energy must be detected by at least one measurement; a physical system able to couple to that source of free energy must have come to exist and must actually extract free energy, and must release that energy in a constrained way to carry out actual work. Thereafter, this work may propagate. If we conceive of an abiotic physical system able to carry out these processes of measurement and work extraction in the abiotic universe, it will have to be an abiotically derived system able to perform such measurements, recording the results, and employ the record of the measurements to extract actual work. Such a system will be a case of propagating organization with boundary conditions as constraints, including measurements in the record as constraints on the behaviour of the system conditional on the recorded measurements, and the constrained release of energy in work. […] These considerations suggest that we take information to be constraint or its physical equivalent, boundary conditions that partially cause events, where the coming into existence of the constraint is itself part of propagating organization. If we do so, the issue starts to clarify in a simple way. It is fully familiar in physics that one must specify the laws, particles, the initial and boundary conditions, then calculate the behaviour of the system in a defined state space. Now it is common, as noted, in physics, to «put in by hand» the boundary conditions, as in the cylinder and piston case. But in the evolving biosphere, it self part of the evolving universe, and in the evolving universe as a whole, new boundary conditions come into existence and partially determine the future unfolding of the biosphere or the universe. These evolving boundary conditions and constraints are part of the propagating organization of the universe. […] Then the growing grains appear to be cases in which matter, energy, and continuously evolving boundary conditions and novel sources of free energy emerge, and condition the future evolution of the grains. The grains are at levels of complexity sufficiently above atoms so that what occurs is typically unique in the universe. It seems virtually sure that no two modest size grains are molecularly identical. Here we confront a union of matter, energy, and evolving and diversifying boundary conditions linking, for example, spontaneous and non-spontaneous processes, and providing diversifying sources of free energy, which alter the ever diversifying structures that come to exist in the evolving expanding universe. If this approach has merit, it appears to afford a direct union of matter, energy and information as constraint or boundary condition.»100 In quest’ottica, dunque, a nostro giudizio, ogni agente autonomo inteso come un sistema riproduttivo che misura, rileva e registra fonti di energia effettuando lavoro per costruire vincoli al rilascio di energia, costituisce, in realtà, quel progetto in grado di fissare per sé il proprio scopo e, di conseguenza, di portare autonomamente il significato al di fuori di sé; ma poiché l’assimilazione, caratteristica che analizzeremo dettagliatamente più avanti, non può che avvenire sulla base di un progetto, un organismo vivente può essere definito anche come un sistema funzionale cognitivo che si auto-programma. Qui possiamo riconoscere con precisione quel particolare intreccio di auto-organizzazione, complessità, emergenza ed intenzionalità (legata allo scopo) che ci permette, sotto certi aspetti, di «leggere» la vita come un fenomeno cognitivo in costante evoluzione.

4. Le pre-condizioni dell’etica

Nella Metafisica dei costumi, capolavoro del 1797, Immanuel Kant, nella parte introduttiva, dà una definizione di ciò che si intende per vita: «Si chiama vita la facoltà che un essere ha di agire in modo conforme alle proprie rappresentazioni.»101 Di primo acchito sembra che questa frase si riferisca solo a soggetti dotati di coscienza, in realtà, se si rivisita questa definizione meravigliosa alla luce della prospettiva di Kauffman dinanzi delineata, alcuni aspetti originali vengono certamente ad emergere. Per esempio, a più di duecento anni dalle geniali parole di Kant, la biologia sistemica non può che riconoscere al grande filosofo del settecento il merito di aver individuato una delle caratteristiche principali della vita: la cognizione. Ma non è tutto, fra poco apparirà chiaramente come, negli organismi viventi, la cognizione sia profondamente legata alla fondamentale nozione di intenzionalità. D. Dennet nel volume dal titolo: L’idea pericolosa di Darwin, propone una gerarchia di forme del conoscere, scaturite durante l’evoluzione con mezzi darwiniani. Egli, infatti, distingue creature darwiniane, creature pavloviane, creature popperiane e creature gregoriane. «Processi più o meno arbitrari di ricombinazione e mutazione dei geni generano alla cieca una gran varietà di organismi candidati. Questi furono saggiati sul campo e sopravvissero i migliori. Questo è il pianterreno della torre. Agli abitanti di questo piano si dia il nome di creature darwiniane102 Un agente autonomo semplice come, per esempio, un batterio è una creatura darwiniana. Nella sua versione più semplice tale creatura si evolve per mutazione, ma anche per ricombinazione e selezione naturale (senza considerare alcun apprendimento comportamentale). Pertanto, una creatura, oppure una colonia o un ecosistema, si adatterà grossomodo come pensava Darwin. «E poi questi individui erano abbastanza fortunati da essere dotati alla partenza di rafforzatori che casualmente favorivano […] le azioni migliori per chi le eseguiva. Questi individui pertanto affrontarono l’ambiente generando una grande varietà di azioni, che sperimentarono singolarmente sino a trovarne una funzionante. Le creature darwiniane di questo sottoinsieme, dalla plasticità condizionabile, si potrebbero chiamare creature skinneriane.»103 Quindi, nel livello superiore successivo a quello delle creature darwiniane, secondo Dennet, esiste un sistema nervoso e la creatura (per esempio l’aplysia) è capace di apprendimento stimolo-risposta. In realtà, l’aplysia può apprendere stimoli condizionati molto semplici; l’analogo più recente può essere rappresentato dal campanello che induce il cane a salivare nell’aspettativa del cibo. «Il condizionamento skinneriano è una buona capacità da possedere, fino a che non si viene uccisi da uno degli errori commessi in precedenza. Un sistema migliore comporta la preselezione tra tutti i possibili comportamenti o azioni, che consente di scartare le alternative sciocche prima di arrischiarle nel mondo spietato […] . I beneficiari del terzo piano della torre si possono chiamare creature popperiane, poiché come disse una volta con grande eleganza Sir Karl Popper, questo progresso progettuale «di morire al nostro posto».»104 Secondo Dennet, dunque, le creature popperiane (noi vertebrati) possiedono modelli interni del loro mondo e possono far funzionare il modello interno a ruota libera, piuttosto che attivare il modello in tempo reale nel mondo reale. In tal modo, allora, come appunto ha affermato Popper, «le nostre ipotesi muoiono al posto nostro». «I successori delle semplici creature popperiane sono quelli i cui ambienti interni sono permeati dalle parti progettate dell’ambiente esterno. Le creature di questo sotto-sotto-sottoinsieme si potrebbero chiamare creature gregoriane, poiché lo psicologo britannico Richard Gregory è a mio avviso il teorico preminente del ruolo dell’informazione […] nella creazione di mosse accorte.»105 Le creature gregoriane siamo noi esseri umani. Il ragionamento di Dennet è molto semplice: noi utilizziamo i nostri utensili (coltelli di pietra, frecce, sarchietti, macchine utensili) per ampliare il nostro mondo di fatti e di processi. Questo mondo condiviso e allargato ci mette a disposizione più saper fare e più conoscenza. In un certo momento però l’evoluzione culturale irrompe libera: la musica rock, ad esempio, invade i minareti iraniani. Alla luce di quanto detto sinora, dunque, Kauffman così commenta: «Mi piace moltissimo la scala di Dennet del sapere come, e infine del sapere che. Senza invocare la coscienza, non perché essa non meriti di essere chiamata in causa ma perché così poche cose sensate sono state dette in materia, sembra importante domandarsi fino a che punto questa gerarchia potrebbe essere realizzata da sistemi molecolari semplici, privi di cellule nervose persino. Sono propenso a credere che gran parte di questa gerarchia sia traducibile a livello molecolare. Per esempio batteri e amebe manifestano già un apprendimento pavloviano: sono dotati di recettori che si adattano su un livello costante di un certo ligando-segnale e che percepiscono un cambiamento dal livello presente. Qui, non si può ancora parlare di associazione tra uno stimolo condizionato più o meno arbitrario e uno stimolo non condizionato, ma riesco a immaginare una chimica che realizzi quest’ultimo. […] Ad esempio schemi molto complessi di sintesi dei carboidrati alimentati da insiemi complessi di enzimi la cui attività è modulata da quegli stessi carboidrati differenti, come nel caso del metabolismo attuale dei carboidrati? Un sistema del genere potrebbe sperimentare alla cieca schemi varianti di sintesi fino a formare una rete autoalimentante che collega i carboidrati, gli enzimi e determinati recettori proteici — mediatori tra stimolo non condizionato e stimolo condizionato — che conservano quel legame mediante anelli di retroazione positiva. Questa immagine non è poi così distante da come immaginiamo il funzionamento delle reti immunitarie a idiotipo e anti-idiotipo, che provvedono alla sintesi di un insieme di anticorpi desiderati contro un agente patogeno che invade l’organismo. In queste reti, di cui esistono prove moderatamente buone, un primo anticorpo funge da antigene stimolando il corpo a produrre un secondo anticorpo, il quale si lega a sequenze di aminoacidi esclusive, l’idiotipo del primo anticorpo. A sua volta, il secondo anticorpo, l’anti-idiotipo, stimola un terzo anticorpo, che stimolerà a sua volta un quarto anticorpo. È probabile, però, che questa serie formerà anelli a retroazione. Infatti il primo e il terzo anticorpo possono spesso legarsi allo stesso sito del secondo anticorpo: il primo e il terzo anticorpo saranno allora forme simili nello spazio delle forme. Non è poi una forzatura considerare il sistema immunitario come un sistema di risposta a stimolo condizionato.»106 Si pensi, ad esempio, alle creature popperiane di Dennet; i nervi sono necessari? Sembra che le piante si inviino segnali mediante complessi metaboliti secondari, e ciò per caratterizzare i tipi di insetti che infestano la radura. Tra il metabolita e l’insetto si stabiliscono relazioni strutturali arbitrarie, proprio come i simboli del linguaggio umano sono spesso arbitrari rispetto alla cosa significata. Non male per degli invertebrati privi di sistema nervoso. Ma andiamo, ora, a prendere in considerazione le creature gregoriane. «Persino qui, la creazione libera e aperta di nuove stringhe di simboli in una lingua, ovunque si possano creare nuove frasi, non differisce nella sostanza dalla persistente creazione aperta di nuovi tipi di molecole nella biosfera intesa come un tutto. Se ci stupiscono le nostre conversazioni di bipedi recenti sui nostri sarchietti e sulle nostre bombe atomiche, non da meno è la conversazione chimica in qualsiasi ecosistema completo, dove tutti siamo funzionali alla vita l’uno dell’altro. Forse, io sono ingenuamente spinto a ritenere che la biosfera, con la sua incalzante diversità, dentro la quale noi, tronfi per tutto il nostro know-how, continuiamo la nostra ricchissima conversazione, possa aver ospitato precocemente tutti i livelli di cui parla Dennet. […] Che posto interessante la biosfera, con tutti questi argomenti di cui parlare! Quattro miliardi di anni di cicaleccio. Le commedie e le farse potrebbero aver avuto inizio tanto tempo fa.»107 Posto in questi termini, il know-how, in accordo con Kauffman, è un altro modo di vedere le chiusure catalitiche che si propagano, i compiti di lavoro, la percezione, la registrazione e le azioni che noi oggi riconosciamo come intrinseci alle attività di agenti autonomi. Il know-how, infatti, non è al di fuori dei processi di auto-organizzazione: il know-how è l’organizzazione propagante stessa. In quest’ottica, dunque, agli occhi del grande studioso americano, con gli agenti autonomi nasce anche un barlume di questione etica. «Disgustoso o delizioso esistono dal mio punto di vista, se io sono un agente autonomo. Vi sono ragioni profonde per essere cauti. Molto tempo fa Hume aveva parlato di fallacia naturalistica: non si può dedurre il «dev’essere» dall’«è». Dal fatto che le madri si prendono cura dei piccoli, non possiamo dedurre che esse dovrebbero fare così, egli sosteneva. […] L’ingiunzione di Hume è alla base della cautela degli scienziati nell’esprimersi su questioni di etica. Noi scienziati scopriamo i fatti. Voi cittadini del mondo potete discettare di etica. Ma se Hume ci invita a non dedurre il deve essere dall’è, che origine hanno i valori? L’ingiunzione di Hume a non dedurre il dev’essere dall’è ha in ogni caso iniziato riconoscendo la legittimità della categoria del deve essere. Gli sforzi successivi a Hume per comprendere il significato di asserti etici sono stati lunghi, contorti e ardui. […] Mi ha sempre lasciato perplesso che il messaggio principale dei positivisti logici, «solo gli enunciati verificabili empiricamente sono significativi», sia esso stesso non verificabile empiricamente. È un po’come se qualcuno si desse la zappa sui piedi. […] L’emergenza dell’etica nell’evoluzione della vita sul nostro pianeta è una questione affascinante. Mi limiterò ad interrogarmi sull’origine innanzitutto del valore e dei rudimenti di intenzionalità nell’universo fisico […] . Dove è il posto del valore in un mondo di fatti? Una breve digressione, allora. I fatti sono enunciati dal sapere che. Ma il sapere come ha preceduto il sapere che. Io, anche se pienamente consapevole dell’ingiunzione di Hume, credo che nella prospettiva dell’agente autonomo la dicotomia disgustoso-delizioso sia primaria, inevitabile e, per quell’agente, della massima importanza. Noi applichiamo, suppongo, criteri darwiniani: troppo disgustoso, ed ecco che quell’agente autonomo, prole compresa, scompare dal futuro della biosfera. Senza attribuire una coscienza a E. coli o a un agente autonomo che potremmo creare in un prossimo futuro, non posso non percepire che i rudimenti del valore sono presenti una volta che esistono gli agenti autonomi.»108 Ritorniamo per un momento alla definizione formulata da Kant. La vita intesa come facoltà di agire in modo conforme alle proprie rappresentazioni non solo ci dice che tutti gli esseri viventi sono sistemi cognitivi, ma ci dice anche che questi organismi agiscono secondo modelli interni creando così sempre nuovi significati. Una rappresentazione, infatti, può essere letta, da un punto di vista fenomenologico, come una ri-presentazione di qualcosa, nel termine rappresentazione, dunque, è implicita la differenza interno/esterno e quindi la direzionalità verso la realtà esterna percepita attraverso modificazioni dello stato interno cui è possibile rispondere mediante semplici azioni. Questa tensione all’esteriorità, soltanto intuita da Kant, a nostro giudizio, può essere definita come intenzionalità non riferita alla coscienza, ossia come quel processo, strettamente connesso con la gratuità delle interazioni molecolari, per cui i significati si sviluppano e, una volta incarnati nelle azioni, operano consentendo altresì agli agenti autonomi di modificare a proprio vantaggio l’ambiente in cui vivono per riprodursi. Ripensiamo per un attimo all’umile E. coli che nuota controcorrente in un gradiente di glucosio. Come abbiamo ampiamente mostrato attraverso le acute osservazioni di Kauffman, il batterio è un sistema autocatalitico in grado di riprodursi e quindi di agire effettuando uno o più cicli di lavoro termodinamico, ma è anche un sistema cognitivo capace di creare sempre nuovi significati e, successivamente, di trasmetterli per mezzo di azioni non coscienti. I batteri e le amebe, infatti, come ben sappiamo, manifestano già un apprendimento potremmo dire pavloviano per usare le parole di Dennet; questi organismi, infatti, sono dotati di recettori che si adattano su un livello costante di un certo ligando-segnale e che percepiscono un cambiamento dal livello presente: ecco, dunque, il delinearsi in biologia di una forma primitiva (naturalmente non cosciente) di rappresentazione. Qui, pertanto, pur non potendo ancora parlare di associazione tra uno stimolo condizionato più o meno arbitrario e uno stimolo non condizionato, risulta possibile inferire che tali organismi sono a tutti gli effetti dotati di quella facoltà vecchia quattro miliardi di anni che Kauffman definisce come know-how, intenzionalità non riferita alla coscienza. A questo punto, dunque, appare con chiarezza la genialità dell’intuizione di Kant: «Si chiama vita la facoltà che un essere ha di agire in modo conforme alle proprie rappresentazioni.» In questa definizione, tuttavia, resta ancora da chiarire un aspetto. Cosa si intende infatti con il termine «azione»? Nel tentativo di dare una prima risposta a tale quesito, appare opportuno esaminare attentamente le seguenti parole di Kauffman: «Daniel Yamins è un giovane e brillante matematico. Dan, da poco iscritto ad Harvard, ha trascorso con me un’estate al Santa Fe Institute prima di imparare a guidare. L’estate precedente l’aveva passata presso il laboratorio di Jack Szostak ad Harvard, dove, quattordicenne, imparava a far evolvere molecole di RNA che si legassero a ligandi arbitrari. Quell’estate, Dan e io abbiamo lavorato sodo per distinguere tra le azioni di un agente autonomo e i meri accadimenti che si svolgono dentro e intorno a lui. Si noti che diciamo che E. coli sta nuotando controcorrente nel gradiente di glucosio per raggiungere il cibo. Ma in quel momento è in atto ogni genere di movimento molecolare vibrazionale, rotazionale e transazionale. Che cosa è azione e che cosa mero accadimento? Non credo che siamo riusciti a distinguere in modo netto tra azioni e accadimenti con una matematica chiara. Percepisco, però, che la differenza tra azione e accadimenti, nella felice espressione di Dan, sia rilevante per E. coli, per le tigri, per noi, per gli alberi e per gli agenti autonomi in generale. […] Non è insieme strano e interessante che tali questioni sembrino scaturire tutte insieme con gli agenti autonomi, ma non altrimenti? Fermo restando che qui sembriamo ritrovare la circolarità del gioco linguistico cui abbiamo alluso in precedenza, credo davvero che rudimenti di semantica, di intenzionalità, di valore e di etica nascano con gli agenti autonomi.»109 Alla luce di tutto ciò, dunque, la differenza fondamentale tra ciò che è vivente e ciò che non lo è risiede nella capacità di agire, ovvero in quel processo che consente al significato di manifestarsi nel tempo: «Meaning derives from agency, Recall the discussion of the minimal autonomous molecular agent, reproducing, doing at least one work cycle, with a receptor for food and for poison, and able to move toward food and away from poison. We can substitute a bacterium swimming up a glucose gradient for food as our example. Then, I claimed, an increased rate of glucose molecules detected by a glucose receptor as the bacterium swims or orients up the gradient was a sign of more glucose up the glucose gradient, and that sign was interpreted by the bacterium by its oriented motion up the glucose gradient. In the C. S. Peircian sense, the glucose is given meaning to the bacterium by the bacterium’s reception of the sign, the glucose, and in its doings, here, swimming up the glucose gradient. The bacterium itself is the receiver. And in this case it is natural selection that has assembled the molecular systems able to accomplish this. Without agency, as far as I can tell, there can be no meaning. It is a very long distance to human agency and meaning. But it is we humans who use the computer to solve our problems. It is we who invest meanings in the physical states of the water bowls or electronic states of the silicon chip. This meaning is the semantics missing in the Turing machine’s computations. Without the semantics the Turing machine is merely a set of physical states of marks on paper, or levels of water in a water bowl or electronic states on that silicon chip. Similarly, it is not a wonder than Shannon brilliantly ignored semantics to arrive at his quantitative theory of the amount of information carried down a channel. That is why Shannon tells us the amount of information passing down a channel, a syntactic quantity, but does not tell us what information is110 Da queste parole di Kauffman, quindi, risulta chiaro che gli agenti autonomi costituiscono quel luogo misterioso della fisica in cui la fisica si apre alla semantica; tuttavia, a nostro giudizio, risulta opportuno distinguere nella scala dei viventi le azioni di agenti autonomi semplici come le amebe ed i batteri o più complessi come le tigri e gli scimpanzé da quelle dell’Homo sapiens, ovvero l’unica specie finora conosciuta capace di bene e di male. Con l’Homo sapiens, infatti, fa la sua comparsa sulla terra il sistema nervoso più profondamente teleonomico mai esistito nella storia della nostra biosfera: solo a questo livello, dunque, la natura, prendendo coscienza di sé, risulta essere effettivamente in grado di trasformare le azioni portatrici di significato in atti liberamente voluti. Per comprendere fino in fondo la portata di queste considerazioni ci pare opportuno invocare di nuovo l’aiuto di Kant il quale nella Metafisica dei costumi distingue con grande acume il termine «azione» (Handlung) da quello di «atto» (That). L’azione (handlung) costituisce un mutamento posto in essere dal soggetto, ovvero da qualsiasi essere vivente; l’atto (that), invece, è il contenuto materiale dell’azione, ovvero ciò di cui il soggetto è l’artefice.111 Secondo Kant, quindi, solo l’uomo compie atti poiché solo l’uomo, in quanto unico essere auto-cosciente, è in grado di riconoscere responsabilmente un’azione come espressione della propria soggettività. A questo punto, allora, possiamo tornare alla definizione kantiana di vita. In virtù della distinzione or ora delineata, appare chiaramente come, agli occhi del grande filosofo tedesco, la facoltà di agire (handeln) in modo conforme alle proprie rappresentazioni non sia soltanto umana, bensì si estenda a tutti i sistemi viventi, ovvero a tutti quei sistemi cognitivi che, agendo a proprio vantaggio, sono in grado di riprodursi. Ebbene, questa geniale intuizione di Kant ci consente di riflettere anche su un’altra questione rilevante sollevata da Kauffman, ci stiamo riferendo, cioè, all’idea originale secondo cui rudimenti di semantica, di intenzionalità, di valore e di etica nascano con gli agenti autonomi e quindi siano intrinsecamente correlati alla nozione di vita. Secondo il grande studioso americano, infatti, anche se tali rudimenti non sono sufficienti per saltare a piè pari la fallacia naturalistica di Hume, tuttavia con la comparsa degli agenti autonomi le categorie del dover essere e dell’essere fanno ingresso nell’universo fisico. In tal senso, allora, l’auto-coscienza, l’etica ed i valori potrebbero affondare le loro radici nell’intenzionalità, proprietà fondamentale della vita: «[…] Senza attribuire una coscienza, una volta che un agente autonomo esiste, è presente il rudimento di intenzionalità? In caso affermativo, è stata posta un’altra pietra angolare di attività etica. Il comportamento etico richiede innanzitutto la possibilità logica del comportamento di cui si è responsabili. Voi non siete responsabili di atti e di effetti al di fuori del vostro controllo. Per agire eticamente, dovete prima di tutto essere capaci di agire in senso lato.»112 Nell’introduzione alla Dottrina della virtù Kant presenta un ragionamento, per certi versi, simile e a tratti sorprendente, tenendo bene a mente la sua posizione nei confronti della legge di Hume. Il grande filosofo tedesco, infatti, così si esprime: «[…] La coscienza non è qualcosa che si può acquisire e non esiste il dovere di procurarsene una. Piuttosto ogni uomo, in quanto essere etico, ha in sé originariamente una tale coscienza.»113 Che vuol dire che la radice dell’etica e del dovere risiedono nell’essere? Quest’espressione è usata da Kant per distaccarsi dall’idea che la coscienza si possa acquisire. Se si potesse acquisire, infatti, si tratterebbe di qualcosa di cui abbiamo un dovere: sarebbe, cioè, qualcosa che non abbiamo in quanto esseri umani. Dire che ogni uomo ha in sé originariamente una coscienza, infatti, non significa che l’uomo è buono per natura. Questo tema oggi è di grande attualità, si pensi ad esempio alle neuro-scienze ed in particolare alla nascita di nuovi ambiti di ricerca come per esempio la neuro-etica; alcuni studiosi, infatti, si chiedono se esistono delle strutture di valore filogeneticamente consolidate che in qualche modo possono essere legate alla chimica. Se la risposta a tale domanda fosse positiva, l’uomo rappresenterebbe quell’essere capace di morale e di responsabilità i cui atti (that), potrebbero però essere considerati come il risultato di milioni di anni di evoluzione, un risultato, vale a dire, le cui radici risiederebbero nella capacità stessa degli agenti autonomi più semplici di agire (handeln) a proprio vantaggio nell’ambiente in cui vivono (know-how). Se così fosse, allora sarebbe possibile inferire che l’uomo, in quanto attuale punto più alto dell’evoluzione (se prendiamo la curva dell’indice di encefalizzazione l’Homo sapiens rappresenta un vero e proprio salto), costituisce una sorta di anello di congiunzione tra l’etica e la biologia, ovvero quel livello della natura in cui la natura, prendendo coscienza di sé, diviene altresì conditio sine qua non per la comparsa dell’etica: «Non vi è uomo che sia privo di un qualche sentimento morale, in quanto una totale insensibilità verso questo sentimento segnerebbe la sua morte etica e se (per parlare in termini medici) la forza vitale etica non fosse più in grado di produrre questo sentimento, l’umanità (per legge chimica, in un certo qual modo) si disperderebbe nella mera animalità e si mescolerebbe irrimediabilmente con la massa degli altri esseri naturali. Contrariamente a quanto si usa dire, non abbiamo un sesto senso per il bene ed il male (etici) come noi l’abbiamo per la verità; ciò che abbiamo è caso mai la sensibilità con cui il libero arbitrio è messo in movimento dalla ragione pura pratica (e dalla sua legge), e questo è ciò che chiamiamo sentimento morale.»114 Come tutti sanno, per Kant la morale la fa la legge e non il sentimento, tuttavia, dove ne va di concetti estetici preliminari, il grande filosofo scrive che per non ridurre l’umanità a mera animalità dobbiamo pensare ad una «forza vitale etica» che produce nell’uomo un sentimento che non è un sesto senso perché non si aggiunge al piano in cui operano gli altri cinque, bensì costituisce una sorta di «morale prima della morale» la cui interfaccia è rappresentata dalla legge morale stessa. Stando così le cose, dunque, in queste pagine il Kant incompatibilista parla della misteriosa forza vitale etica che fa dell’uomo un essere vitale etico. Proprio in queste parole, quindi, risulta possibile rintracciare, a nostro giudizio, l’alba di un ipotetico cammino teorico in cui è possibile supporre una fondazione naturalistica delle pre-condizioni della capacità morale anche in virtù della definizione di agente autonomo divisata da Kauffman e poca’anzi messa a confronto con l’originale prospettiva kantiana. In quest’ottica, allora, L. Boella così scrive: «Parlare di morale prima della morale presuppone la ricerca inaugurata da Darwin, di specifici comportamenti orientati a fini vitali (la sopravvivenza della specie), ma non solo. L’evoluzione ci dice infatti quanto la risposta al bisogno di mantenimento in vita di un organismo implichi lo sviluppo di un tessuto di interazione tra gli individui fondamentale per l’acquisizione di capacità superiori come il linguaggio, l’apprendimento, la memoria. In realtà, in una morale prima della morale non è in gioco semplicemente l’attestazione della base biologica della morale, quanto piuttosto la possibilità di ridefinire e ricomporre una visione unitaria della persona in cui i dati che risultano dalla conoscenza dei meccanismi naturali non vengano recepiti passivamente come qualcosa di immutabile ed estraneo (e magari manipolabile da forze superiori come la medicina), bensì vengano attratti nell’orbita dell’esperienza quale ognuno di noi la costruisce giorno per giorno, sacrificando parti di sé, incoraggiandone altre, affidandone altre ancora alla cura di medici, di familiari. […] Quando ci si riferisce all’approccio scientifico e, nel caso specifico, neurobiologico alle questioni morali, è giusto chiarire che esso si colloca nel contesto dell’evoluzione ma si pone una domanda diversa da quella di Darwin sull’origine naturale-biologica della morale, che per altro continua ad alimentare molte discussioni. Le neuroscienze possono infatti essere utilmente interrogate in relazione ad un ambito determinato e sicuramente non esaustivo della complessità dell’esperienza morale, quello delle precondizioni o condizioni di possibilità della capacità morale. Quello biologico o, più precisamente, neurobiologico è quindi un livello dell’esperienza morale corrispondente all’esistenza di reazioni automatiche anche complesse governate da meccanismi cerebrali. Tale livello mette di fronte a vincoli decisivi per l’esercizio della capacità morale e al tempo stesso rende plausibile un radicamento del comportamento morale — per esempio, dell’altruismo, della bontà — nel sistema dei desideri, delle intenzioni, delle motivazioni. D’altra parte, la molteplice gamma di possibilità inscritte nel cervello umano e la sua plasticità rendono impossibile, almeno allo stato attuale delle conoscenze, ricondurre anche solo un unico comportamento morale esclusivamente a funzionamenti organici. Nella prospettiva dell’esperienza umana nella sua integrità e ricchezza appare infatti che, in ogni momento dell’esistenza, gli esseri umani sperimentano il passaggio dalla passività e dipendenza biologica all’ambito dei giudizi, delle scelte, delle valutazioni e delle azioni. E ciò significa che in gioco sono diverse possibilità non solo di umanizzare ciò che è naturale, ma anche di naturalizzare ciò che è umano.»115

5. Coscienza ed intenzionalità

Ed eccoci inevitabilmente condotti ai confini della neuroetica, vale a dire, verso quel nuovo campo di indagine strettamente correlato sia agli straordinari progressi compiuti negli ultimi anni dalle scienze del cervello, sia al complesso delle loro implicazioni etiche, legali e sociali. Tuttavia, questi brevi accenni al dibattito di natura interdisciplinare in atto, relativo all’idea di naturalizzare l’etica ed i valori, mostrano, con chiarezza, la complessità e la vastità di tali tematiche. Al fine, dunque, non di dare soluzioni, ma di inquadrare meglio alcuni dei più importanti problemi teorici sul tappeto, appare opportuno, giunti a questo punto della disamina, concludere il presente lavoro mostrando come, parallelamente alle ricerche portate avanti da Kauffman, in questi ultimi anni, in ambito neurobiologico, stiano facendo capolino una serie di studi relativi all’intenzionalità ed alla capacità biologica di scegliere. In modo particolare, faremo qui riferimento a W. J. Freeman studioso americano che, in linea di continuità con la prospettiva di Kauffman, nel volume del 1999 dal titolo: Come pensa il cervello, mostra come l’intenzionalità non possa essere riferita solo a livello della coscienza, bensì sia presente anche in agenti autonomi non umani, venendo ad essere considerata altresì come una delle caratteristiche fondamentali del bios. Freeman definisce intenzionale il processo che genera azioni mirate a un obiettivo nel cervello degli esseri umani e di altri animali. In genere, tali azioni vengono chiamate volontarie se compiute da un essere umano, ma non da un animale poiché molti pensano che soltanto gli esseri umani abbiano la capacità di agire per volontà. In alternativa a questo concetto di volizione, dunque, il grande neurobiologo tenta di individuare una base neurale per le azioni finalizzate che è comune agli esseri umani e ad altri animali poiché riflette l’evoluzione dei meccanismi umani a partire da animali più semplici in cui l’intento può operare senza volontà. Pertanto, nella parte iniziale del suo volume, egli così si esprime: «Il concetto — l’intenzionalità — fu descritto per la prima volta da Tommaso d’Aquino nel 1272 per indicare il processo mediante il quale gli esseri umani e altri animali agiscono in conformità alla propria crescita e maturazione. Vi è un intento quando un’azione viene rivolta verso un qualche obiettivo futuro che è definito e scelto dall’agente. Differisce da un movente, che è la ragione e spiegazione dell’azione, e da un desiderio, che è la consapevolezza e l’esperienza che derivano dall’intento. […] Sulle orme di Tommaso d’Aquino, gli avvocati comprendono e utilizzano tali distinzioni. Gli psicologi di norma no. I filosofi hanno cambiato radicalmente il significato del termine intenzione e lo usano per indicare la relazione che un pensiero o una convinzione hanno con il proprio significato, quale che sia, ma i medici e i chirurghi, di nuovo seguendo Tommaso d’Aquino, hanno mantenuto il senso originario poiché applicano il termine ai processi di crescita e guarigione del corpo dalle lesioni, conservandone in tal modo il contesto biologico originario. A mio giudizio, gli animali sono dotati di consapevolezza, ma non della consapevolezza di sé, che è ben sviluppata soltanto negli esseri umani. La consapevolezza di sé è necessaria per la volizione: gli animali non possono offrirsi volontari. […] La mia proposta è che i significati emergono quando il cervello crea comportamenti intenzionali e poi cambia se stesso in accordo con le conseguenze sensoriali di tali comportamenti. Tommaso d’Aquino e Jean Piaget hanno entrambi chiamato assimilazione tale processo. Si tratta del processo mediante il quale il sé arriva a capire il mondo adattando se stesso al mondo. I contenuti del significato derivano dall’impatto del mondo, principalmente dall’impatto sociale delle azioni di altri esseri umani su di noi, e comprendono tutto il contesto già acquisito della storia e dell’esperienza. Benché i contenuti del significato abbiano in gran parte un’origine sociale, i meccanismi del significato sono biologici e vanno compresi in funzione della dinamica cerebrale. Il significato è una sorta di struttura viva.»116 I neuroscienziati hanno prestato scarsa attenzione a come nasce il significato e a quali sono le condizioni che lo favoriscono. Per i pragmatisti e gli esistenzialisti il significato si forma chiaramente mediante l’azione. In modo particolare, viene creato nel e dal cervello. L’opinione di Freeman, invece, è che «il significato si crea in forme particolari e uniche dentro di noi mediante le azioni e le scelte che noi tutti facciamo, imparando inizialmente a vivere secondo un sistema di credenze che ci viene offerto attraverso i genitori, i compagni e i colleghi, e che dapprima cambiamo affinché ci soddisfi e poi modifichiamo affinché diventi noi stessi.»117 Di solito le persone suppongono che il significato si trovi negli eventi naturali come, ad esempio, i tramonti, i fiori primaverili ed il corteggiamento da parte degli animali. In realtà, sottolinea il grande neurobiologo, i significati si trovano negli osservatori (compresi gli animali) e non negli oggetti, negli eventi o nei movimenti del corpo. Soltanto il cervello, infatti, ha significati e questi ultimi sono molto diversi dalle rappresentazioni. Per cogliere pienamente tale differenza, allora, occorre distinguere la rappresentazione mentale dallo stato mentale. «Durante gli ultimi trecento anni, ci siamo abituati a esprimere i nostri pensieri in termini di rappresentazioni. La metafora di immagine mentale ha sostituito la descrizione effettiva della nostra esperienza soggettiva del pensiero, tanto che mettere in dubbio l’utilità della metafora per comprendere la funzione cerebrale può sembrare un atteggiamento polemico. Eppure il contenuto mentale che precede la realizzazione di un dipinto, di un romanzo o di un modello, per esempio, differisce profondamente dalle forme che vengono congelate nell’opera. Questo è altrettanto vero per qualunque azione nei confronti dello stato mentale che la precede. Quando tentiamo di correlare uno stato cerebrale con un comportamento, dovremmo confrontare le misure di una configurazione di attività cerebrale non con un concetto mentale che sta dentro di noi, ma con uno stato di significato che in base alle nostre inferenze sta nel cervello della persona o dell’altro animale che stiamo osservando. Poiché il cervello è composto da neuroni interconnessi, i significati devono emergere in qualche modo grazie all’attività dei neuroni.»118 Oggi sappiamo molto delle caratteristiche anatomiche, fisiche e chimiche dei neuroni, tuttavia l’aspetto importante per comprendere fino in fondo la relazione tra neuroni e significato costituisce, agli occhi di Freeman, una nuova prospettiva da cui esaminare le masse di dati raccolti dai neurobiologi e gli enigmi che ne derivano. Nonostante l’enorme quantità di dati accumulati, infatti, i neuroscienziati tutt’ora non riescono a superare le difficoltà poste dai vecchi interrogativi. In un quadro del genere, allora, l’idea di significato, un concetto critico che definisce la relazione tra ogni cervello ed il mondo, diviene fondamentale specialmente nei dibattiti che si svolgono oggi nell’ambito della filosofia della biologia, delle scienze cognitive e, recentemente, anche della neurobiologia. Come abbiamo dinanzi accennato, il processo per cui i significati si sviluppano e operano è l’intenzionalità. Per la maggioranza delle persone il termine intenzione si riferisce a qualsiasi comportamento cosciente, diretto ad un obiettivo. Tale accezione, come sappiamo, è una versione diluita del concetto elaborato da Tommaso d’Aquino. Alcuni filosofi del secolo scorso hanno usato l’altra versione mitigata per designare la relazione (sia reale che immaginaria) tra stati mentali ed oggetti o eventi del mondo. I riferimenti a questa accezione di intenzionalità parlano spesso di attinenza delle rappresentazioni mentali. «Una caratteristica importante tanto dell’accezione quotidiana quanto del recente uso filosofico è l’implicita richiesta che gli stati mentali siano stati coscienti. Ma noi svolgiamo la maggior parte delle attività quotidiane che sono chiaramente intenzionali e significative senza esserne esplicitamente consapevoli. Si consideri l’attività degli atleti e dei ballerini, che muovono il loro corpo nello spazio e nel tempo per qualche fine (vincere una gara, raccontare una storia, esprimere emozioni). Quando una persona impara per la prima volta a ballare o a praticare uno sport, fa ricorso ad una riflessione cosciente su che cosa dovrebbe fare con il suo corpo, ma per lo più attinge in maniera inconscia a quelle capacità già acquisite che tutti manifestiamo utilizzando il corpo come la capacità di correre. Via via che procede l’allenamento del cervello e del corpo, la riflessione cosciente sulla manipolazione del corpo diminuisce e la persona salta il fosso acquisendo quella che comunemente si chiama facilità per il gioco o per la danza. La performance diventa una «seconda natura».»119 In molti casi, la massima gioia e realizzazione delle persone arriva con l’immersione totale nell’attività che manda in frantumi la consapevolezza di sé: esse, infatti, diventano completamente ciò che desiderano nel corpo e nello spirito, senza riserve. Il cervello ed il corpo, anticipando i segnali in ingresso, percepiscono e fanno movimenti senza dover riflettere. E’, quindi, proprio questo genere di abilità inconsapevole, ma diretta, nell’esercizio della percezione (il know-how per dirla con Kauffman e Dennet) che il concetto di intenzionalità deve comprendere. Alla luce di tutto ciò, dunque, Freeman così si esprime: «Gli esempi dell’atleta e del ballerino dimostrano quelle che a mio giudizio sono le tre proprietà principali dell’intenzionalità. La prima è l’unità. Il nostro cervello ed il nostro corpo sono totalmente impegnati nella proiezione corporea di noi stessi nel mondo e l’unificazione delle nostre percezioni rispetto a tutti i sensi si realizza a ritmi più veloci di quelli che possiamo percepire. In questo contesto, io distinguo tra il sé, che è unificato, e la consapevolezza di sé, che nella nostra esperienza è l’ego, che non è unificata, ma sfaccettata come il sole sulle onde. La seconda proprietà è l’interezza: l’intera esperienza della vita confluisce in ogni momento di azione. Le esperienze della gara e della danza vengono generalizzate e continuamente utilizzate come base di rielaborazione. È presente anche uno sforzo, descritto da Aristotele e Goethe due secoli fa, nel senso di una lotta cieca, organica, verso la realizzazione del nostro potenziale completo entro i limiti posti dall’eredità e dall’ambiente. La terza proprietà dell’intenzionalità è lo scopo o intento, poiché, che gli atleti e i ballerini ne siano consapevoli o meno, le loro azioni sono dirette a qualche fine. Quindi la percezione è un processo continuo e perlopiù inconscio che viene campionato e contrassegnato in maniera intermittente dalla consapevolezza, e ciò che ricordiamo sono i campioni, non il processo. Il fatto che non sia necessario che la coscienza faccia parte della descrizione dell’intenzionalità apre nuovi orizzonti. La coscienza non è un buon punto da cui iniziare una teoria dell’attività del cervello, poiché l’unico test biologico per provare se la coscienza è presente o meno in un soggetto passivo consiste nel domandarglielo. Gli animali non possono rispondere, non perché a modo loro non possono ricordare o creare rappresentazioni, ma perché non possono creare e rappresentare astrazioni all’altezza del livello di ricercatezza comunicativa necessario.»120 I biologi evoluzionisti hanno mostrato che le operazioni complesse del cervello e del corpo hanno avuto origine in animali più semplici e si sono evolute nelle capacità umane. In tal senso, allora, sulla base dei dati relativi al comportamento, risulta possibile inferire che gli animali nutrono intenzioni, pur non sapendo se sono coscienti delle loro azioni. Si consideri, ad esempio, un animale che si sveglia, ha fame e si mette in cerca di una preda. Se si imbatte in una sostanza chimica odorante che corrisponde al cibo, deve estrarre e percepire un odore di cui è alla ricerca e distinguerlo da tutto il sottofondo di odori, un insieme infinitamente complesso di sostanze chimiche che non è affatto in grado di identificare e catalogare. Successivamente indaga per scoprire da dove viene l’odore: concepire l’origine, infatti, fa parte del significato dell’odore. Per fare ciò, l’animale necessita di sapere dov’era quando lo ha percepito e di calcolare la sua intensità. Deve considerare diverse variabili come la direzione del vento o delle acque in base alla sensazione sulla pelle, alla percezione di piante ondeggianti ed ai suoni prodotti dalla corrente. Così, in virtù di questi nuovi ingressi, deve compiere un’altra mossa e deve sapere dove è arrivato. Infine, deve ottenere dai recettori sensitivi dei muscoli e delle articolazioni la verifica che abbiano effettivamente fatto quanto aveva segnalato di fare il cervello, o, in caso contrario, deve sapere che cosa hanno fatto in alternativa. «Tutti questi segnali si combinano nell’unità di una percezione multisensoriale, nota anche come Gestalt, che fornisce la base per quanto l’animale sceglie di fare al passo successivo. Tutti questi aspetti vengono attribuiti al significato della percezione, dell’odore, e nessuno di essi allo stimolo, la sostanza odorante. L’animale si sposta in una nuova posizione, annusa ancora una volta e confronta i due odori. Ma la differenza di intensità tra i due passi successivi sarebbe priva di significato se l’animale non costruisse una storia che descrive dove si trovava al primo tentativo e dove è andato al secondo, combinando numerose percezioni sensoriali che comprendono le registrazioni somatosensoriali dei movimenti del suo corpo nell’ambiente.»121 La fondamentale attività di ricerca del cibo dimostra le tre proprietà dell’intenzionalità individuate da Freeman. «Gli esseri umani si sono evoluti da creature più semplici e taluni comportamenti di queste forme più antiche sono precursori del nostro comportamento intenzionale che è ricco e vario. L’evoluzione ci ha conferito la capacità di cogliere l’intenzionalità negli altri senza bisogno di definirla. Se vediamo un comportamento mirato, lo riconosciamo quasi all’istante. Quando ci imbattiamo in un oggetto di un certo tipo, ci domandiamo se è vivo o morto e se reagirebbe attaccandoci o fuggendo al nostro tentativo di catturarlo. Se sta fermo, ci domandiamo se ci sta guardando. Se si muove, ci domandiamo se il movimento è diretto verso di noi, lontano da noi o altrove. Nel mondo moderno, non abbiamo grandi difficoltà a distinguere tra i comportamenti delle macchine intelligenti che non sanno ciò che fanno ed i comportamenti intenzionali degli animali che lo sanno. Nella letteratura zoologica sono citati molti esempi di comportamenti intelligenti manifestati da altri vertebrati e anche da invertebrati quali il polpo, l’ape e l’aragosta. Charles Darwin scoprì prove evidenti di comportamento intenzionale nei lombrichi e alcuni scienziati ritengono che anche i batteri lo manifestino.»122 Si pensi per l’ennesima volta all’esempio di E. coli che risale controcorrente il gradiente di glucosio in cerca di cibo. Il batterio «affamato» distingue il proprio corpo dagli elementi chimici esterni, come un potenziale cibo, e tiene traccia dei suoi movimenti nello spazio e nel tempo, il che potrebbe indicare l’interezza dell’esperienza. La sua attività, inoltre, è orientata ad uno scopo preciso: la riproduzione. Ovviamente noi possiamo soltanto supporre tutto questo osservando l’agente autonomo in azione. L’unità, l’interezza e lo scopo, dunque, costituiscono, agli occhi di Freeman, le condizioni base affinché esista un soggetto biologico portatore di significato. Come abbiamo già accennato in precedenza, quindi, i significati si trasmettono tramite l’intenzionalità, ovvero tramite quel processo in base al quale gli organismi viventi cambiano se stessi agendo ed imparando dalle conseguenze delle loro azioni: quando un agente autonomo afferra un significato, infatti, è spinto verso nuovi comportamenti. Ebbene, a seconda della complessità degli agenti autonomi ci saranno capacità differenti di elaborazione del significato, ovvero canali diversi di comunicazione. «[…] Tutto quel che sappiamo del nostro cervello in confronto a quello di altri animali presenti sulla terra e a tutte le testimonianze fossili ci dice che l’intelligenza biologica si è evoluta nel contesto di una brutale corsa agli armamenti chimici, la guerra biologica in cui si mangia per non essere mangiati. Il naso era ed è l’arbitro iniziale di ciò che ingeriamo e di ciò che ci spaventa. Il confronto tra cervelli diversi mostra che i meccanismi dell’intenzionalità emersero per la prima volta nel sistema olfattivo e che il sistema visivo, quello uditivo e quello somatosensitivo si inserirono cooperandone il sistema operativo, modificando i dettagli, ma sfruttando la spinta principale di quella dinamica. L’olfatto continua a essere unico tra i sensi a causa dell’accesso diretto alla corteccia cerebrale dei suoi neurorecettori. […] Questo spiega perché l’odore del fumo, della carne putrida, del caffè del tabacco, del profumo, gli odori corporei e così via sono tanto più irresistibili emotivamente delle sensazioni visive e uditive che li accompagnano. Se ne ricava la lezione che per capire la vista e l’udito, comprese le forme di rappresentazione parlate e visive, dobbiamo innanzitutto capire come fa il nostro cervello ad affrontare le infinite complessità dell’ambiente olfattivo. Gli esempi dell’atleta, del ballerino e dell’animale affamato ci riconducono ad alcuni interrogativi fondamentali. […] Se il mondo esterno è infinito rispetto agli stimoli sensoriali che offre al corpo, in che modo il cervello seleziona ciò che ha un’importanza immediata? Quando vi è consapevolezza, quale è la sua natura biologica e cosa fa?»123 Eccoci giunti, dunque, al cospetto di una delle più grandi frontiere dell’ignoto: la comparsa ed il funzionamento del sistema nervoso centrale dell’uomo, ovvero il sistema più profondamente teleonomico che sia mai esistito sulla Terra, l’unico sistema, vale a dire, a partire dal quale si genera il misterioso fenomeno dell’autocoscienza. «Alcuni sistemi biologici sono dotati di coscienza ma, come mise in evidenza Franz Brentano, le macchine inanimate, finora, non lo sono, poiché non hanno intenzioni. Ma quale è la natura della coscienza? In che modo il cervello la genera? In che modo si potrebbe farla operare in un cervello dall’intelligenza artificiale per produrre cambiamenti nei componenti della macchina e nel comportamento dell’intero sistema? Nella comunità delle scienze cognitive sono in corso numerosi dibattiti proprio su questi argomenti. La coscienza è un gran mistero. I problemi sono intrattabili poiché, nel campo delle scienze cognitive, il significato è definito da una relazione tra simboli, come nelle definizioni sintattiche delle parole, composte da altre parole e da immagini, che si trovano in un vocabolario. Ma nella realtà i riferimenti al mondo non sono definiti nell’ambito di un vocabolario o di un computer.»124 Le riflessioni di Freeman ci consentono, a questo punto, di mostrare la concezione della mente offerta dal pragmatismo, una concezione che, in accordo con il grande neurobiologo, facciamo nostra anche al fine di mettere in luce un altro aspetto fondamentale del bios che Kauffman non approfondisce e che la definizione kantiana di vita non coglie nella sua profondità, ci stiamo riferendo qui alla fondamentale nozione di assimilazione (o adaequatio), termine introdotto per la prima volta da Tommaso d’Aquino. Per i pragmatisti, la mente è una struttura dinamica che deriva dalle azioni compiute nel mondo. Oggi sappiamo che la coscienza interagisce con i processi cerebrali, tuttavia non è qualcosa di epifenomenico e non è identica a questi processi. La coscienza non controlla le azioni che costituiscono i comportamenti o almeno non in modo diretto. In termini dinamici, secondo il grande neurobiologo, essa può essere paragonata ad un operatore poiché modula la dinamica cerebrale da cui sono costruite le azioni passate: «posta in nessun luogo e dappertutto», infatti, essa è in grado di rielaborare i contenuti forniti dalle varie parti. Negli esseri umani, secondo recenti studi, sembra che sia l’abbondante sviluppo dei lobi frontali e temporali a fornire l’oggetto dell’autocoscienza. Il cervello degli altri animali, infatti, non possiede queste parti ed il loro comportamento non dà prova di auto-coscienza o di auto-consapevolezza: esiste, quindi, la possibilità che essi siano coscienti senza essere autocoscienti, né consapevoli delle loro azioni intenzionali. «Nel 1272, Tommaso d’Aquino fece conoscere all’Europa occidentale Aristotele, in particolare nel Trattato sull’uomo, e la teoria aristotelica della percezione attiva, secondo la quale l’organismo acquisisce la conoscenza del mondo e realizza il suo potenziale attraverso le sue azioni sul mondo. Tommaso modificò il concetto per renderlo conforme alla dottrina cristiana, distinguendo tra volontà e intenzione: la volontà compie scelte etiche libere in relazione al bene e al male, al torto e alla ragione, ed è qualcosa che hanno soltanto gli esseri umani, mentre l’intenzione è il meccanismo attraverso il quale si realizza il potenziale dell’organismo, qualche cosa che hanno anche altri animali. Secondo tale concezione, inoltre, ogni animale è un essere unificato e racchiuso entro un confine che distingue tra «sé» e «altro da sé» e il sé utilizza il corpo per spingere in fuori il suo confine nel mondo.»125 In un passaggio importante della Summa Theologiae il Doctor Universalis così scrive: «[…] Intendere significa tendere verso qualcosa; e questa tendenza si può riscontrare sia nel soggetto che muove sia in quello che è mosso. Se dunque si considera l’intenzione come derivante da altri, allora si può affermare che la natura ha l’intenzione del fine: poiché è mossa da Dio al suo fine, come la freccia dall’arciere. E in questo senso anche gli animali irrazionali hanno l’intenzione del fine, in quanto sono mossi dall’istinto naturale verso determinate cose. — In un altro senso invece l’intenzione del fine è riservata al soggetto che muove, in quanto è capace di ordinare l’operazione propria, o quella di altri, al fine. Il che spetta solo alla ragione. Quindi gli animali irrazionali non hanno l’intenzione del fine in questo senso, che è poi quello proprio e principale, come si è spiegato.»126 L’origine etimologica di intendere e di intenzione è il verbo latino intendere, che significa non solo tendere in avanti, ma, in maniera altrettanto importante, anche, come abbiamo accennato sopra, cambiare il sé agendo ed imparando dalle conseguenze delle azioni. Al posto dell’idealismo platonico, Tommaso pose a fondamento della dottrina medievale della Chiesa il materialismo aristotelico, operando però una brillante distinzione. A differenza di Platone, secondo Aristotele e Tommaso la percezione è un processo attivo e non una passiva accettazione delle forme. Nella visione Aristotelica, tuttavia, l’interazione tra mente e mondo va in entrambe le direzioni: le azioni transitive (per esempio, tagliare, bruciare, indagare), sono dirette nel mondo in quanto manipolazioni esplorative, e quindi gli stimoli entrano nel corpo come forme degli oggetti materiali, mentre con le azioni intransitive si interpretano e si conoscono le forme degli oggetti per associazione. «Tommaso, in base alla sua concezione dell’unità del sé, concluse che il processo è unidirezionale. Le azioni del corpo escono grazie ai sistemi motori, cambiando il mondo e cambiando la relazione del sé con il mondo. Le conseguenze sensoriali delle azioni consentono poi al corpo di cambiare se stesso in accordo con la natura del mondo. La percezione, tuttavia, è soltanto dei contorni alterati del sé come ne viene fatta esperienza internamente. Nessuna forma viene spinta attraverso o al di là del confine. La parola chiave usata da Tommaso è «assimilazione» (adaequatio indica un avvicinamento, ma non il raggiungimento, dell’uguaglianza). Il corpo non assorbe gli stimoli, ma cambia la propria forma per diventare simile a quegli aspetti degli stimoli che riguardano l’intento emerso nell’ambito del cervello. Tommaso paragonò tale processo a un osservatore che fa brillare una luce all’interno di una struttura come una tenda. L’osservatore inferisce che cosa succede all’esterno dalle forme della luce riflessa e dai movimenti delle pareti della tenda. Vi è differenza con le pareti della caverna di Platone poiché lì la luce e le forme provengono dall’esterno e vengono colte in modo imperfetto dai sensi in base alle ombre sul muro immobile, mentre per Tommaso le forme vengono create internamente al sé grazie al raggiungimento della similitudine.»127 L’Aquinate così spiega questo fondamentale concetto: «Il vero […] si trova formalmente nell’intelletto. E siccome ogni cosa è vera secondo che ha la forma conveniente alla propria natura, l’intelletto, considerato nell’atto del conoscere, sarà vero in quanto ha in sé l’immagine della cosa conosciuta, poiché tale immagine è la sua forma nell’atto del conoscere. Per questo motivo la verità si definisce in base alla conformità dell’intelletto alla realtà, e quindi conoscere tale conformità è conoscere la verità. Tale conformità invece il senso non la conosce in alcun modo: per quanto infatti l’occhio abbia in sé l’immagine dell’oggetto visibile, pure non afferra il rapporto che corre tra la cosa vista e ciò che esso ne coglie. L’intelletto invece può conoscere la propria conformità con la cosa conosciuta. Tuttavia non la afferra quando percepisce la quiddità di una cosa; ma quando giudica che la cosa in se stessa è conforme alla sua apprensione, è allora che comincia a conoscere e a dire il vero. E fa questo nell’atto di comporre e di dividere: infatti in ogni proposizione l’intelletto applica o esclude, in una cosa espressa dal soggetto, ma una certa forma espressa dal predicato. Quindi è giusto affermare che il senso relativamente ad una data cosa è vero, o che è vero l’intelletto nel conoscere la quiddità, ma non si può dire che conosca o affermi il vero. E la stessa cosa vale per le espressioni verbali complesse o semplici. La verità, dunque, può anche trovarsi nei sensi o nell’intelletto che conosce la quiddità come si trova in una cosa vera, ma non quale oggetto conosciuto nel soggetto conoscente, come invece indica il termine vero: la perfezione dell’intelletto, infatti, è il vero conosciuto. Per conseguenza, a parlare propriamente, la verità è nell’intelletto che compone o divide (che giudica); non invece nel senso, e neppure nell’intelletto che percepisce la quiddità.»128 Per esempio, quando adattiamo una mano per stringere una caffettiera e l’altra per tenere una tazzina allo scopo di riempirla, non trasferiamo forme geometriche nel cervello, ma uniamo il nostro corpo alle forme degli oggetti adattandovi le mani per poterli manipolare. Pertanto, i significati degli oggetti crescono in conformità a quanto abbiamo fatto e a quanto intendiamo fare con tali oggetti. Così, altri possono osservare ciò che facciamo, imparare per imitazione a creare in tal modo significati simili ai nostri, che comunque sono prodotti da loro e non sono trapiantati. Tommaso basa la sua nozione di unidirezionalità sull’incompatibilità tra le forme della materia, che sono uniche e particolari, e le forme dell’intelletto, che sono generalizzazioni e astrazioni. Questi costrutti intellettuali sono tutto ciò che possiamo conoscere poiché ogni oggetto materiale è infinitamente complesso nei suoi dettagli. «In un certo senso esiste un’unica verità, per la quale tutte le cose sono vere, mentre non è così in un altro senso. Per vederlo chiaramente bisogna sapere che quando un attributo viene affermato di più cose univocamente, si trova in ciascuna di esse secondo la sua propria nozione, come animale in ogni specie di animali. Quando invece un attributo viene affermato di più soggetti analogicamente, allora esso si trova secondo la sua propria nozione in uno solo, dal quale tutti gli altri vengono denominati: p. es. sano si dice dell’animale, dell’orina e della medicina, in modo che l’attributo della sanità non si trova nel solo animale, ma dalla sanità dell’animale è denominata sana la medicina in quanto è causa di tale sanità, e sana l’orina in quanto ne è il segno. E sebbene la sanità non sia nella medicina e neppure nell’orina, tuttavia nell’una e nell’altra vi è qualcosa per cui l’una produce e l’altra significa la sanità. Ora, sopra […] si è detto che la verità primariamente è nell’intelletto e secondariamente nelle cose in quanto dicono ordine all’intelligenza divina. Se dunque parliamo della verità in quanto, secondo la sua nozione propria, è nell’intelletto, allora, dato che esistono molte intelligenze create, vi sono anche molte verità; e anche in un solo e medesimo intelletto vi possono essere più verità, data la pluralità degli oggetti conosciuti.»129 Non esistono, ad esempio, due tazzine identiche, neanche se provengono dallo stesso stampo; molto semplicemente, per motivi pratici, ci figuriamo che lo siano. Le forme dipendono dalla scala: nel caso, ad esempio, delle lamette da barba sembrano tutte uguali ad occhio nudo, tuttavia, se le si osserva al microscopio elettronico, ognuna appare come una catena montuosa diversa. Stando così le cose, dunque, Freeman così si esprime: «Tommaso annullò la dicotomia tra soggetto e oggetto, poiché il sé crea le sue forme uniche rendendosi simile al mondo, non scoprendo al suo interno forme ideali, categorie o verità eterne che si contrappongono agli oggetti del mondo. In termini contemporanei, il corpo e il cervello sono sistemi aperti con flussi di materia, energia ed informazione, ma l’unidirezionalità della percezione fa della trama del significato un sistema chiuso. Il mondo è infinitamente al di là delle nostre limitate capacità di creare forme e i suoi particolari sono inaccessibili e inutili per noi. […] Il processo dell’intenzionalità, quando funziona bene, ci permette di cogliere proprio tutto ciò che siamo i grado di trattare e nulla di più. […] Il nostro sistema percettivo unidirezionale è la nostra risorsa migliore per adeguare le nostre limitate capacità al mondo infinito.»130 Nella dottrina di Tommaso d’Aquino, come abbiamo dinanzi mostrato, l’intenzionalità non richiede coscienza, tuttavia ha bisogno dell’azione per creare significato. Questa impostazione, dunque, ci consente di scavare ulteriormente all’interno della teoria dell’agente così come divisata da Kauffman. In base alla prospettiva di Freeman or ora messa in luce, infatti, gli agenti autonomi sono si attori costruttori che creano sempre nuovi significati attraverso la realizzazione di azioni imprevedibili (know-how), ma tutto ciò è possibile solo perché, come appunto denota Tommaso, la vita è essenzialmente assimilazione (adaequatio) e quindi intenzionalità: il bios, pertanto, alla fine di questa lunga disamina, appare come il risultato di una serie trans-finita di adeguamenti che costituiscono e modificano imprevedibilmente le parti del gioco stesso. Noi annusiamo, muoviamo gli occhi, mettiamo la mano a coppa dietro all’orecchio e spostiamo le dita per manipolare un oggetto al fine di ottimizzare la nostra relazione con tale oggetto per il nostro scopo immediato. Merleau-Ponty ha chiamato questa azione dinamica «ricerca della massima presa», ovvero «ottimizzazione della relazione del sé con il mondo realizzata disponendo i recettori sensitivi verso l’oggetto designato».131 Questo concetto equivale, appunto, all’assimilazione di Tommaso. Da queste considerazioni, quindi, a nostro giudizio, risulta possibile inferire che la vita non è soltanto linguaggio (o a limite puro sistema di programmi) e cognizione (e, in generale, apprendimento), bensì appare anche come un fenomeno coevolutivo in cui l’informazione si trasforma continuamente dando nascita, altresì, ad un processo dialettico di creazione ed assimilazione (adaequatio) di significati sempre nuovi: ecco, allora, che, in accordo con Kauffman e Freeman, diviene sempre più urgente la costruzione di una nuova semantica, una semantica, vale a dire, non più soltanto di tipo interpretativo, bensì di tipo generativo. Il grande biochimico, tuttavia, pur avendo segnato (mediante l’applicazione delle reti booleane stocastiche alla biologia) il cammino delle ricerche nell’ambito della complessità biologica dagli anni settanta fino ad oggi e nonostante i numerosi ed originali sentieri esplorati nell’ultimo decennio (la teoria dell’agente autonomo, il concetto di cicli di lavoro termodinamico, la rivisitazione del concetto di significato secondo Pierce e la teoria dell’informazione istruttiva), a differenza di Atlan e Carsetti i quali pongono l’accento dei loro studi sulla possibilità di costruire una teoria semantica dell’informazione, ovvero una rinnovata teoria algoritmica dell’informazione basata su di una logica intensionale e sul riferimento a strumenti matematici innovativi, egli, rimane, per alcuni aspetti, ancorato ad un modello matematico (basato su una logica estensionale), che permane, a livello formale, quello presentato con tanta cura e lungimiranza nei suoi primi articoli pubblicati negli anni settanta e a cui, ancora oggi, si fa continuo riferimento in tanti centri di ricerca nel mondo. Per costruire a livello biologico una teoria dell’informazione semantica, invece, occorre fare i conti sino in fondo con l’informazione profonda, un’informazione, vale a dire, non misurabile tramite il ricorso agli strumenti offerti dalla tradizionale teoria dell’informazione di Shannon basata, come abbiamo visto, su di una matematica troppo semplice e quindi «incompatibile» con la complessità dei fenomeni vitali. Occorre, in altre parole, definire, come abbiamo accennato in precedenza, i principi di una nuova teoria dell’informazione algoritmica (cioè di una nuova teoria della complessità), non esclusivamente ancorata ad una base proposizionale, bensì articolata al livello di una dimensione logica a carattere predicativo e stratificato. Una tale teoria della complessità dovrebbe essere in grado, tra l’altro, di mostrarci come sia possibile parlare, senza contraddizione alcuna, di non esistenza di algoritmi finiti in relazione a problemi che pure risultano ben posti in termini di unicità e di esistenza (la non esistenza è un dato di partenza ineliminabile così come, sul versante fisico, in accordo con Prigogine, è un dato primitivo l’esistenza di una randomness che trova il suo fondamento nella dinamica). Ebbene, tutto ciò implica anche l’elaborazione di una semantica intensionale ed iper-intensionale per i processi ricorrenti di auto-organizzazione, nonché la costruzione di modelli di simulazione di automi dotati di basi intensionali e di funzioni riflessive ed interpretative. In altre parole, occorre estendere il quadro standard relativo ai modelli tradizionali booleani per costruire un nuovo e più generale tipo di concetto teorico: «the concept of self-organizing model. The sign of such a new kind of semantics, if successful, will necessarily conduct us, as a consequence, to perceive the possibility of outlining a new and more powerful theory of cellular automata, of automata in particular, that will manifest themselves as coupled models of creative and functional processes. We shall no longer be only in the presence of classification systems or associative memories or simple self-organizing nets. We shall be, on the contrary, faced with a possible modeling of precise biological activities, which biochemical networks or biochemical simulation automata capable of self-organizing, as coupled systems, their emergent behaviour including their same simulation functions. When we consider, for instance, DNA as a complex system characterized by the existence of a precise language articulating within the contours of a self-organizing and intentional landscape, we are necessarily faced with a molecular semantics that needs, in order to be understood, explanatory tools much more powerful than those provided by Kauffman model a particular embodiment of these tools, can be actually, represented by the outlining of simulation automata able to prime new forms of conceptual «reading» of the information content hidden in the text provided by the molecular language.»132 Anche se le parole ed i concetti che abbiamo or ora riportato hanno subito in lavori più recenti alcune modificazioni a seguito dell’approfondimento realizzato da A. Carsetti in questi ultimi anni, questi, tuttavia, a nostro giudizio, ci additano con efficacia l’ombra di quelle che potremmo definire come le «colonne d’Ercole della biologia». Una teoria dell’informazione semantica, infatti, dovrebbe fare i conti con una alterità radicale: in questo ipotetico dialogo tra l’osservatore e la sorgente, infatti, quest’ultima può essere paragonata da un filosofo anche ad una significazione originaria che sfugge costantemente ad ogni tentativo umano di oggettivazione e di rappresentazione. Si sta proponendo qui l’ipotesi suggestiva di far dialogare il mistero dell’auto-organizzazione con una diacronia irrappresentabile, ovvero con un’intenzionalità priva d’inizio che, trascendendo la chimica, la fisica, la matematica, la biologia e la stessa scienza dell’informazione, si ri-vela come Vita «incarnandosi» costantemente nel linguaggio, quindi nel codice. Un tale cammino teorico, inoltre, come abbiamo mostrato in queste pagine, potrebbe anche far luce sull’intrigante questione relativa alla comparsa dell’etica mostrando altresì come le pre-condizioni della capacità morale dell’uomo siano in realtà proprietà fondamentali che caratterizzano la vita stessa. Secondo questa prospettiva, dunque, la nozione monodiana di invarianza legata all’idea di un programma genetico fisso ed immutabile, lascia il posto a quella di emergenza del significato, cioè apertura al possibile e alla complessità. Gli agenti autonomi, infatti, non sono meri «spettatori» del mondo, al contrario, come appunto rileva Kauffman, sono «attori-costruttori» che, in continuo rapporto con l’ambiente, trasformano se stessi creando così sempre nuovi significati. Il DNA, pertanto, non è un programma fisso che dice quello che saremo, bensì costituisce quel fascio di capacità che esprime la logica della vita fondata sul concetto-chiave di possibilità. «At the level of complexity molecules […] the universe has not had time to create all possible versions. For example, the universe has not had time to create all proteins to length 200, by about 10 to the 67th power repetitions of the history of the universe. Consider a simple set of organic molecules and all the reactions they can collectively undergo. Call the initial set of molecules the Actual. New among the reactions that might happen, some may lead to molecular species that are not present in the initial actual. Call these new molecular species the Adjacent Possible. They are the molecular species that are reachable in a single reaction step from the current actual. It is of fundamental importance that the biosphere has been evolving into the Adjacent Possible for 3. 8 billion years, from an initial diversity of perhaps 1000 organic molecules to trillions. The biotic world advances into the adjacent possible in terms of molecules, morphologies, species, behaviours, and technologically from pressure flaked stones; it lurks in everything from the global economy to the computer, and the millions of products in the current global economy. […] The evolving universe and biosphere advance persistently into the adjacent possible. This means that what comes to exist at these levels of complexity is typically unique in the universe. Now consider a heritable variation which gives rise to a new constraint, physical biotic information, that helps cause a sequence of events in a molecular agent. If that heritable variation is to the selective benefit of the agent, the new constraint, the new biotic information, will be grafted into the organism, its progeny, and the ongoing evolution of the biosphere. It is essential to note that in the absence of heritable variation, an increase in fitness, and natural selection, this new functionality would not come to exist in the universe: but lungs and flight have come to exist. The mechanisms of heritable variation and natural selection comprise an assembly process by which propagating organization is modified in normal Darwinian adaptations and pre-adaptations where new functionalities arise, and these modifications are built into the ongoing evolution of the biosphere.»133 Stando così le cose, dunque, a nostro giudizio, la vita appare come un fenomeno di transazione, ovvero il risultato di una serie di trasferimenti bi-direzionali di informazione indipendenti tra loro e nello stesso tempo interconnessi. L’indipendenza implica che ogni trasferimento è in sé libero; in altre parole, nessun trasferimento informazionale costituisce un prerequisito per la messa in atto dell’altro, dal momento che non vi è alcun obbligo esterno in grado di agire sulla dinamica del processo. È una logica, quest’ultima, di reciprocità molecolare, una logica vale a dire né condizionale né puramente incondizionale, poiché se è vero che i processi molecolari di una cellula sono gratuiti, al tempo stesso senza la risposta di alcune macromolecole il sistema non realizza il proprio telos interno. A queste due caratteristiche (la condizionalità/incondizionale e la bi-direzionalità dei trasferimenti) ne va però aggiunta una terza: la transitività. Nei sistemi altamente complessi come gli agenti autonomi, a livello molecolare si ha che la risposta di una molecola ad un segnale di un’altra molecola può anche non essere rivolto verso quella molecola che ha scatenato la reazione di reciprocità, ma anche verso un terzo elemento. In altre parole, A che pone in essere un processo nei confronti di B innesca un processo di reciprocità chimica non solo se B risponde nei suoi confronti, ma anche se agisce reciprocamente nei confronti di C (si pensi ad esempio alla chiusura auto-catalitica dei sistemi prebiotici). È questo, dunque, che rende la reciprocità del bios qualcosa di diverso da un egoismo incrociato, conferendole altresì apertura. Sono queste, infatti, le dinamiche interne ai processi di auto-organizzazione della vita. Nei sistemi viventi, a livello molecolare, la struttura di reciprocità che viene spontaneamente ad emergere è normalmente triadica e dunque aperta, una struttura, vale a dire, in cui è possibile rintracciare chiaramente non solo fenomeni di associazione molecolare, bensì fenomeni di cooperazione in cui ogni parte, così come c’è soltanto mediante tutte le altre, «è anche pensata come esistente in vista delle altre e del tutto, cioè come strumento […] solo allora e per ciò un tale prodotto potrà essere detto, in quanto essere organizzato e che si auto-organizza, uno scopo naturale».134 Proprio qui infatti possiamo riconoscere con precisione i meccanismi misteriosi di quella che Kant definisce come forza vitale etica, ovvero quel particolare intreccio di auto-organizzazione, complessità, emergenza, assimilazione ed intenzionalità che ci permette di «leggere» la vita come un fenomeno cognitivo, coevolutivo e relazionale, un fenomeno, vale a dire, governato da una misteriosa logica di reciprocità molecolare.135


  1. T. Pievani, La scienza della complessità incontra la storia, in Esplorazioni evolutive, Einaudi, Torino, 2005, p. 345. ↩︎

  2. S. A. Kauffman, Esplorazioni evolutive, Einaudi, Torino 2005, p. 25-29. ↩︎

  3. Ibidem, p. 3. ↩︎

  4. Ibidem, p. 4. ↩︎

  5. E. Schrödinger, (1943), Che cos’è la vita?, Sansoni, Firenze 1947, p. 63-66. ↩︎

  6. Kauffman, Esplorazioni Evolutive, p. 10. ↩︎

  7. Schrödinger, Che cos’è la vita?, p. 87. ↩︎

  8. Ibidem, p. 88-89. ↩︎

  9. Ibidem, p. 92. ↩︎

  10. Kauffman, Esplorazioni Evolutive, p. 11-12 ↩︎

  11. Ibidem, p. 7. ↩︎

  12. Ibidem, p. 13. ↩︎

  13. Ibidem, p. 44. ↩︎

  14. Ibidem, p. 46-47. ↩︎

  15. D. H. Lee, J. R. Granja, J. A. Martinez, K. Severin and M. R. Ghadiri, (1996), «A Self-Replicating Peptide», Nature 382 (6591): 525-528. ↩︎

  16. D. H. Lee, K. Severin, Y. Yokobayashi and M. R. Ghadiri, (1997), «Emergence of symbiosis in peptide self-replication through a hypercyclic network», Nature, 390:591-594. Si veda anche: D. H. Lee, K. Severin and M. R. Ghadiri, (1997), «Autocatalytic networks: the transition from molecular self-replication to molecular ecosystems», Curr.Opin. Chem. Biol., 1, 4, p. 491-496. ↩︎

  17. Kauffman, Esplorazioni Evolutive, p. 49. ↩︎

  18. Ibidem, p. 64. ↩︎

  19. S. Carnot, Riflessioni sulla potenza motrice del fuoco, Bollati Boringhieri, Torino 1992. ↩︎

  20. Kauffman, Esplorazioni Evolutive, p. 76-77. ↩︎

  21. Ibidem, p. 78. ↩︎

  22. Ibidem, p. 78-79. ↩︎

  23. Ibidem, p. 80. ↩︎

  24. Ibidem, p. 82. ↩︎

  25. Ibidem, p. 83. ↩︎

  26. Ivi. ↩︎

  27. Ibidem, p. 84. ↩︎

  28. Ibidem, p. 86. ↩︎

  29. Ivi. ↩︎

  30. Ibidem, p. 87. ↩︎

  31. S. A. Kauffman, (2003), «Molecular Autonomous Agents», Philos. Transact a Math. Phys. Eng. Sci., 361 , 1807, p. 1089-99. ↩︎

  32. Kauffman, Esplorazioni Evolutive, p. 89-90. ↩︎

  33. Ibidem, p. 90. ↩︎

  34. Ibidem, p. 91. ↩︎

  35. Ivi. ↩︎

  36. Ibidem, p. 92. ↩︎

  37. Ibidem, p. 92-93. ↩︎

  38. A. J. Daley, A. Girvin, S. A. Kauffman, P. R. Wills and D. Yamins, (2000), «Simulation of a Chemical Autonomous Agent», Z. Phys.Chem. 216, 41. ↩︎

  39. Kauffman, Esplorazioni Evolutive, p. 95. ↩︎

  40. R. Benkirane, (2002), Teoria della Complessità, Bollati Boringhieri, Torino, 2007, p. 159-160. ↩︎

  41. Kauffman, Esplorazioni Evolutive, p. 96. ↩︎

  42. Ibidem, p. 96-97. ↩︎

  43. S. A. Kauffman, (2007), «Question: Origin of Life and the Living State», Orig. Evol. Biosph, 37:315-322, p. 319. ↩︎

  44. Kauffman, Esplorazioni Evolutive, p. 97. ↩︎

  45. Ibidem, p. 98. ↩︎

  46. C. E. Shannon, (1948), «A mathematical theory of comunication», Bell Syst Technical J. 27:379-423. ↩︎

  47. Kauffman, Esplorazioni Evolutive, p. 114. ↩︎

  48. Ibidem, p. 115. ↩︎

  49. Ibidem, p. 115-116. ↩︎

  50. Ibidem, p. 116-117. ↩︎

  51. Ibidem, p. 117-118. ↩︎

  52. Ibidem, p. 118-119. ↩︎

  53. Ibidem, p. 121. ↩︎

  54. Ibidem, p. 122. ↩︎

  55. Ibidem, p. 123. ↩︎

  56. Ibidem, p. 124. ↩︎

  57. Ibidem, p. 126. ↩︎

  58. Ibidem, p. 127-128. ↩︎

  59. Ibidem, p. 128. ↩︎

  60. Ibidem, p. 129. ↩︎

  61. Ibidem, p. 133. ↩︎

  62. Ibidem, p. 134. ↩︎

  63. Ibidem, p. 135. ↩︎

  64. Ivi. ↩︎

  65. Ibidem, p. 112. ↩︎

  66. P. Atkins, Four laws that drive the universe, Oxford University Press., 2007. ↩︎

  67. Kauffman, Esplorazioni Evolutive, p. 112. ↩︎

  68. Kauffman, Question: Origin of Life and the Living State, p. 320. ↩︎

  69. Kauffman, Esplorazioni Evolutive, p. 143. ↩︎

  70. Ibidem, p. 144. ↩︎

  71. Ibidem, p. 145. ↩︎

  72. Kauffman, S. A. and P., Clayton (2006) «On emergence, agency, and organization», Biol. Philos, 21:501-521. ↩︎

  73. Kauffman, Esplorazioni Evolutive, p. 145. ↩︎

  74. Ibidem, p. 146. ↩︎

  75. J. Bronowski, (1970), «New concepts in the Evolution of Complexity», Zygon, 5, p. 18-35. ↩︎

  76. Eigen M. and R. Winkler, (1981) «Transfer-RNA, an early Gene?», Naturwissenschaften, 68, p. 282-292. ↩︎

  77. A. Carsetti, (1987), «Teoria algoritmica dell’informazione e sistemi biologici», La Nuova Critica, 3-4, p. 37-38. ↩︎

  78. Ibidem, p. 38. Si veda anche A. Carsetti, «Natural Intelligence and Artificial Intelligence», in Intelligent Information Systems for the Information Society, (B. C. Brookes ad.), Elsevier, Dordrecht, 1986. ↩︎

  79. Ibidem, p. 39. ↩︎

  80. Ibidem, p. 40. ↩︎

  81. A. Carsetti, (1989), «Teoria della complessità e modelli della conoscenza», La Nuova Critica, 9-10, p. 61-62. ↩︎

  82. C. F. von Weizsäcker, «Evolution und Entropiewachstum, in Offene Systeme I (von Weizsäcker ed.), Stuttgart, 1974. ↩︎

  83. Carsetti, «Teoria algoritmica dell’informazione e sistemi biologici», p. 43. ↩︎

  84. Ibidem, p. 44. ↩︎

  85. Ibidem, p. 45. ↩︎

  86. Ibidem, p. 47. ↩︎

  87. Kauffman, Esplorazioni Evolutive, p. 147-148. ↩︎

  88. C. E. Shannon (1948) «The mathematical theory of communication», Bell Syst Technical J., 27, p. 379-423. ↩︎

  89. Carsetti, «Teoria algoritmica dell’informazione e sistemi biologici», p. 50-51. ↩︎

  90. S. A. Kauffman, R. K. Logan, R. Este, R. Goebel, G. Hobill and I. Shmulevich, (2008) «Propagating organization: an enquiry», Biol. Philos., 23, p. 34-35. ↩︎

  91. Ibidem, p. 36-37. ↩︎

  92. Kauffman, Esplorazioni Evolutive, p. 149. ↩︎

  93. Kauffman, Logan, Este, Goebel, Hobill, Shmulevich, «Propagating organization: an enquiry», p. 38. ↩︎

  94. Shannon, «The mathematical theory of communication, p. 380. ↩︎

  95. Kauffman, Logan, Este, Goebel, Hobill, Shmulevich, «Propagating organization: an enquiry», p. 38. ↩︎

  96. Ibidem, p. 39. ↩︎

  97. Ivi, p. 39. ↩︎

  98. Ibidem, p. 39-40. ↩︎

  99. Ibidem, p. 40. ↩︎

  100. Ibidem, p. 42-43. ↩︎

  101. I. Kant (1797) Metafisica dei costumi, Bompiani, Milano 2006. ↩︎

  102. D. Dennet, L’idea pericolosa di Darwin, Bollati Boringhieri, 1997,p. 474-75. ↩︎

  103. Ibidem, p. 474. ↩︎

  104. Ibidem, p. 474-475. ↩︎

  105. Ibidem, p. 478. ↩︎

  106. Kauffman, Esplorazioni Evolutive, p. 151. ↩︎

  107. Ibidem, p. 152. ↩︎

  108. Ibidem, p. 153-154. ↩︎

  109. Ibidem, p. 154-155. ↩︎

  110. Kauffman, Reinventing the sacred, p. 193. ↩︎

  111. Kant, Metafisica dei costumi, p. 47. ↩︎

  112. Kauffman, Esplorazioni Evolutive, p. 154. ↩︎

  113. Kant, Metafisica dei costumi, p. 415. ↩︎

  114. Ibidem, p. 415. ↩︎

  115. L. Boella, Neuroetica. La morale prima della morale, Raffaello Cortina Editore, Milano, 2008, p. 43-44. ↩︎

  116. W. J. Freeman, Come pensa il cervello, Einaudi, Torino 1999, p. 12-13. ↩︎

  117. Ibidem, p. 19. ↩︎

  118. Ibidem, p. 22. ↩︎

  119. Ibidem, p. 24. ↩︎

  120. Ibidem, p. 25. ↩︎

  121. Ibidem, p. 26. ↩︎

  122. Ibidem, p. 40. ↩︎

  123. Ibidem, p. 26-27. ↩︎

  124. Ibidem, p. 34-35. ↩︎

  125. Ibidem, p. 35. ↩︎

  126. Tommaso d’Aquino, (1272), La somma teologica. CD-ROM, Edizioni Studio Domenicano, Bologna, 2002. [I-III, 12, 5a]. ↩︎

  127. Freeman, Come pensa il cervello, p. 36. ↩︎

  128. Tommaso d’Aquino, La somma teologica. CD-ROM, [I, 16, 2a]. ↩︎

  129. Ibidem. [I, 16, 6a]. ↩︎

  130. Freeman, Come pensa il cervello, p. 37-38. ↩︎

  131. M. Merleau-Ponty, La struttura del comportamento, Bompiani, Milano 1970. ↩︎

  132. A. Carsetti, 1996, «Chaos, natural order and molecular semantics», La Nuova Critica, 27-28, p. 99-100. ↩︎

  133. Kauffman, «Propagating organization: an enquiry», p. 41. ↩︎

  134. I. Kant, Critica della facoltà di giudizio, p. 207. ↩︎

  135. Questo articolo costituisce una rielaborazione di alcune tematiche sviluppate nella mia tesi di laurea magistrale dal titolo: I sentieri evolutivi della complessità biologica alla luce delle investigazioni scientifiche e delle esplorazioni metodologiche di S. A. Kauffman. Ringrazio calorosamente il Dipartimento di Biologia dell’Università di Roma Tor Vergata ed in particolare i professori Amaldi, Piacentini, Rickards e Rizzoni con i loro rispettivi collaboratori per avermi permesso, mediante programmi mirati, di approfondire dal punto di vista scientifico alcune delle tematiche qui affrontate. Un ringraziamento speciale va al mio relatore e maestro, il Prof. Arturo Carsetti, per avermi dato l’opportunità di scoprire ed approfondire, attraverso i suoi fondamentali insegnamenti, i temi affascinanti della filosofia della biologia contemporanea, trasmettendomi altresì la passione per lo studio del significato. Inoltre, ringrazio il Prof. Stuart Alan Kauffman per aver accettato di interloquire con me dandomi utili suggerimenti ed interessanti spunti, nonché la possibilità di mantenere anche un prezioso contatto a distanza. Infine, ringrazio con affetto il correlatore, il Prof. Francesco Miano, per la competenza, la disponibilità e la profonda umanità con cui mi ha seguito. Le immagini qui utilizzate sono di Stuart Kauffman ed in particolare sono state riprese dal volume Esplorazioni Evolutive, Einaudi, Torino 2005. ↩︎