Limiti dell’evoluzione ed informazione biologica

codon wheel

 

L’evoluzione viene considerata da alcuni innegabile come lo è la forza di gravità, un meccanismo naturale dalle capacità praticamente illimitate: all’evoluzione viene di fatto attribuita la complessità e la biodiversità della vita sul nostro pianeta.

​​ 

Nel trattare anche solo parzialmente un tema tanto ampio, complesso, controverso, dibattuto e dalle profonde implicazioni risulta vantaggioso iniziare specificando bene che cosa si intende con l’uso del termine oggetto della trattazione, che nel nostro caso riguarda il significato nel contesto della biologia.

 

Possiamo da subito affermare che chiunque si potrà facilmente rendere conto di quanto sia difficile trovare una definizione universalmente riconosciuta e incontrovertibile dell’evoluzione, per esempio anche solo ricercando la definizione del termine su Internet

 

Tra le tante versioni a disposizione, un buon compromesso tra semplicità e completezza è quella che troviamo nella relativa pagina di Wikipedia:

 

..il progressivo ed ininterrotto accumularsi di modificazioni successive, fino a manifestare, in un arco di tempo sufficientemente ampio, significativi cambiamenti morfologici, strutturali e funzionali negli organismi viventi..”

 

Questa definizione riassuntiva, cercando di contemplare il risultato della ricerca scientifica di più di un secolo e mezzo, comprende la definizione classica darwiniana - che intende l’evoluzione come un meccanismo di formazione di nuove specie - quella più “adattamentale” di Mayr - usata per definire il cambiamento nella varietà e nell’adattamento di popolazioni di organismi - e quella più nel contesto della genetica di Williams - che la descrive come il processo attraverso il quale alcuni geni cambiano la loro frequenza nel pool genico.

 

Nelle definizioni sopra citate, che non sono certamente le uniche, vengono racchiusi concetti molto diversi e sembrano emergere potenzialità e capacità molto diverse: dalla capacità di creare nuove specie, derivata dalla fase storica iniziale della teoria, a quella di permettere l’adattamento, sviluppata nella fase storica focalizzata sulla genetica delle popolazioni, a quella di variare la comparsa di certe sequenze di DNA, più recente e relativa alla fase storica molecolare.

 

Eppure, da questa veloce analisi delle varie definizioni formulate nel corso della storia delle scienze biologiche potrebbe sembrare che la potenzialità dell’evoluzione si sia in un certo qual modo “ridimensionata” con il progredire degli studi scientifici e che la sua definizione passi da una coraggiosa dichiarazione di meccanismo che crea specie ad una più cauta che parla di favorire la variazione del DNA più “adatto”.

 

In effetti, l’evoluzione viene spesso usata come termine valido per descrivere i più disparati contesti e processi della vita presente e passata, come per i processi di discendenza con modificazione, di resistenza batterica, di dinamiche delle popolazioni, di LUCA (ultimo antenato ​​ 

comune universale), di speciazione, di adattamento di un organismo, passando con apparente disinvoltura da contesti nettamente macro-evolutivi a specificatamente micro-evolutivi.

 

Con le considerazioni presentate in questo breve scritto sarà ovviamente impossibile analizzare tutte le definizioni di evoluzione che la scienza propone e valutare tutte le relative teorie avanzate dagli studiosi nel corso del tempo o analizzare gli ambiti di applicazione delle stesse.

 

Cercheremo piuttosto di valutare brevemente le potenzialità delle soluzioni fornite dalle teorie evoluzionistiche come spiegazione alla complessità ed alla biodiversità della vita, in particolare alla luce ed attraverso la “lente” di un argomento che sta diventando sempre più fondamentale anche per le scienze naturalistiche: l’informazione biologica.

 

 

Come la gravità?

 

Dall’inizio abbiamo sollevato il dubbio che, nonostante dalle aule delle classi di biologia agli articoli e servizi dei più comuni mezzi di informazione e divulgazione scientifica si tenda a presentare l’evoluzione come un fatto stabilito, consolidato, incontrovertibile e comunemente accettato, al pari della gravità, le cose potrebbero non stare proprio così.

 

L’eminente biologo evoluzionista James Shapiro nel 2010 [1] ha indicato chiaramente come il dibattito sull’evoluzione sia caratterizzato dall’esistenza di ‘imprese scientifiche ai margini della serietà’ (in riferimento agli studi sull’origine della vita), dall’esistenza di ‘discendenze evolutive ben più complicate da spiegare che solo attraverso la semplice ereditarietà verticale’ e dall’innegabile presenza di ‘processi di modificazione evolutiva nel tempo come un numero in continuo aumento di eventi molecolari e cellulari distinti diversi dalle predizioni convenzionali’.

 

Rimangono, secondo Shapiro, una serie di importanti domande a cui rispondere in modo soddisfacente, ovvero:

 

  • Da dove proviene l’innovazione nell’evoluzione?

  • Come si è strutturata schematicamente la discendenza con modificazione? Un albero della vita o una ragnatela della vita? Da quanti tipi di cellule è iniziata l’evoluzione?

  • Che natura ha la modificazione ereditaria?

  • Che ruolo ha la selezione naturale?

 

Chi abbia un minimo di nozioni di base sull’evoluzione si rende conto del peso che hanno queste domande, poste pubblicamente da un rinomato scienziato che passa la sua vita ad insegnare e sperimentare la validità delle teorie evoluzionistiche: eppure, a fatica veniamo informati di quanto il livello di questo dibattito sia alla base della teoria stessa, una base molto meno solida di quanto, dicevamo, ci viene insegnato o trasmesso troppo semplicisticamente.

 

L’evoluzione biologica è fondata su due principali pilastri, mutazione casuale e selezione naturale: perché dunque Shapiro chiede “da dove proviene l’innovazione nell’evoluzione”? Non dovrebbero essere sufficienti questi due principali processi a spiegarla? Evidentemente no.

 

Nel 2013, a sessant’anni dalla scoperta della struttura molecolare del DNA, Philip Ball, da vent’anni divulgatore scientifico della rivista scientifica Nature, [2] ha scritto un articolo molto interessante sulla stessa linea tracciata da Shapiro, dichiarando quanto segue:

 

..Sessant’anni dopo, la vera definizione di ‘gene’ è intensamente dibattuta. Non sappiamo cosa fa la maggior parte del nostro DNA, né come o fino a che punto governa i nostri tratti. In altre parole non capiamo pienamente come l’evoluzione funziona a livello molecolare..”

 

..In breve, la fotografia attuale su come e dove l’evoluzione opera e come questo modella i genomi è una specie di pasticcio..”

 

..Dovrebbe esserci una più coraggiosa ammissione – in effetti una celebrazione – di risapute incertezze..”

 

Dovrebbe essere oggetto di attenta riflessione quanto queste parole possano stupire anche tenendo presente che il DNA - più nello specifico, i geni - sono considerati in modo piuttosto universale il “pool” entro il quale l’evoluzione modifica e seleziona i tratti per ottenere la complessità e la variabilità.

 

Il fatto che si dovrebbe porre rimedio ad una mancanza di obbiettività, come invocato dall’articolo appena citato, potrebbe inficiare la “scientificità” del metodo con il quale l’evoluzione viene studiata, sperimentata e divulgata, nonché accettata?

 

Lasciando da parte considerazioni epistemologiche e scomode impasse legate al dilemma della demarcazione e della definizione di cosa veramente sia scienza, entriamo il più possibile nel merito, ​​ convinti che il detto anglosassone “the devil is in the details” rappresenti, in questo contesto, una sacrosanta verità – “sacrosanta” nonostante il “diavolo” – e che un’analisi critica da un punto di vista veramente scientifico, che evita di formulare conclusioni basate su puri preconcetti ideologici e non su quello che è veramente osservabile, dimostrabile e verificabile, potrà aiutarci a fare luce con più obbiettività.

 

Partiamo quindi dal presupposto che c’è motivo di ritenere, perlomeno per certi aspetti dell’evoluzione - sebbene alcuni dei quali basilari - che questi non siano in realtà così consolidati e incontrovertibili come i principi base della gravità.

 

 

Informazione e complessità: i numeri in gioco.

 

Immaginiamo che il vostro nome sia Riccardo.

 

Ricevete un giorno una telefonata sul vostro telefono cellulare da parte di un vostro amico che si chiama Giovanni e che è da un po’ di tempo che non sentite.

 

La cosa vi stupisce perché Giovanni, nonostante la vostra lunga amicizia, per una serie di motivi non vi risultava fosse in possesso del numero del vostro apparecchio mobile.

 

Dopo le consuetudini, ad un certo punto non resistete e gli sottoponete la domanda che vi suscita tanta curiosità e che non vi ha permesso di ascoltare con piena concentrazione le novità che Giovanni vi stava comunicando.

 

Come hai trovato il mio numero di cellulare, caro Giovanni?”

 

Ah, sì, il numero. Vuoi proprio che te lo spiego? Non è proprio il tuo campo di competenze ma se vuoi…”

 

Beh”, gli rispondete, “è vero ma che centrano le competenze? Era solo una curiosità... Sai, non vorrei che il mio numero ti fosse arrivato attraverso “canali” che non sono in grado di controllare, anche se sono contento che tu ce l’abbia…”

 

Hai ragione” risponde Giovanni, “ora ti spiego… Innanzitutto sai che il numero di un cellulare è composto da tre stringhe numeriche, che si possono sia esprimere in modo inter-spaziato che come unica stringa, ovvero senza spazi; dipende dai paesi e dal numero di abbonati ma tipicamente un numero telefonico di un cellulare è composto dal prefisso internazionale di 4 cifre, dal prefisso dell’operatore di 3 cifre e dal numero vero e proprio di 7 cifre: per esempio 0039 328 1234567”

 

Ehm, ssì, certo… Ti ringrazio, maa… Quindi?!”

 

Beh, nel tuo caso, pensa, il prefisso internazionale non mi serviva nemmeno! Io lo so che sei italiano! Su quello non ho avuto problemi… Poi, per quanto riguarda l’MNO e l’MNVO…”

 

Eeeh? Scusa? Di cosa stai parlando?”

 

Te l’avevo detto che non avevi competenze e che avresti fatto fatica… Allora, sono le sigle che definiscono il raggruppamento tipologico degli operatori possessori della rete, in base al fatto se sono reali o virtuali! Almeno questo credevo tu lo sapessi! Bene, andiamo avanti ma seguimi, mi raccomando, ora arriva il bello… Allora, escludendo gli MNO/VO tecnici o non commerciali, che non sono normalmente destinati alla clientela, io e qualche amico – perché mi sono fatto aiutare e da gente esperta del settore, con grandi competenze - abbiamo compilato un elenco indicizzato delle cifre variabili dei MNO/VO, quindi abbiamo fatto uno studio su queste variabilità scoprendo che, pensa un po’, oltre ad avere la caratteristica di iniziare tutti per la cifra 3 - e questa, come forse anche tu riesci ad immaginare, è una grande semplificazione nell’impresa di scoprire il numero – ed essere in tutto solo 35 (in base agli ultimi aggiornatissimi dati), non variano che per due o tre cifre nella seconda e nella terza! Capisci?! Così è molto più semplice, pensa se fossero variate tutte e 3 le cifre del prefisso da uno a nove, come avviene per il numero vero e proprio! Quindi sapevamo che sarebbe stata una cosa piuttosto semplice... Quindi, dicevamo, una volta definita la variabilità limitata a soli 35 prefissi, non restava che stabilire il numero di 7 cifre, anche qui non un impresa così colossale… Anche se tu non hai una preparazione matematica così elevata potrai capire che per una stringa numerica di 7 cifre, che possono assumere lo stato da 0 a 9, abbiamo una probabilità p di 1 su 10 elevato alla 7, che fa – te lo dico io – una probabilità su 10.000.000 di trovare il tuo numero a caso…”

 

Giovanni?!?!”

 

“…Ma questo non rende certo la cosa impossibile, proprio per questo non ero solo! Mi sono fatto aiutare! E non avevo nemmeno nessun problema di tempo! Insomma, ricapitolando, con molti amici, nessun problema di tempo e un po’ di prove, alla fine, ce l’ho fatta! Tieni presente che se il numero è sbagliato non squilla nemmeno, è comodissimo! Insomma, alla fine, in una settimana, in 20 persone, ce l’abbiamo fatta!”

 

GIOVANNI!!! CHE STAI DICENDO?!?!?! Ho qui di fronte il nostro amico Pietro che mi sta dicendo che è stato lui a dare il mio numero ad uno dei tuoi amici!!!”

 

 ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​​​ -.-

 

L’aneddoto appena narrato ci aiuta ad introdurre un argomento molto importante nell’ampio ambito in cui ci muoviamo, ovvero i numeri in gioco nei processi evolutivi: quanto il numero degli organismi ed il tempo che trascorre possono semplificare la “ricerca” all’interno dello “spazio funzionale della vita” alla selezione naturale?

 

Questo argomento è tutt’altro che secondario.

 

Una delle principali obiezioni che si incontrano affrontando temi di questo genere è proprio l’appello all’argomentazione della quantità di organismi e del tempo trascorso, tempo durante il quale questi stessi organismi sarebbero stati sottoposti all’azione delle due principali “forze” che hanno ipoteticamente “plasmato” la vita fino ad ottenere l’attuale complessità a partire da primordiali molecole auto-replicative.

 

Nell’esempio dei due amici, le valutazioni di Giovanni presentavano le tipiche caratteristiche di chi sostiene questo tipo di argomentazione, ovvero, solo per menzionarne alcune, la scelta ad hoc dei punti “a favore” di una tesi e lo scarto di altri (tipicamente quelli che sono invece “a sfavore”), la semplificazione indebita, l’argumentum ab auctoritate ed altre fallacie argomentative che nulla hanno a che fare con la scienza.

​​ 

Trial and error

 

Se Giovanni avesse realmente voluto trovare il numero di Riccardo attraverso continue prove avrebbe dovuto innanzitutto tenere presente che non avrebbe potuto identificare o scoprire un numero alla volta: l’operatore di rete non prevede che una richiesta di connessione verso un numero intero e corretto.

 

Questo aspetto è fondamentale.

 

Spesso nei film vengono mostrati dispositivi di decriptazione delle password, apparentemente ipertecnologici che scoprono rapidamente password di accesso in pochi secondi, azzeccando un carattere per volta, sempre più rapidamente.

 

Questa è ovviamente una finzione bella e buona, girata principalmente per rendere più rapido lo svolgersi della scena in questione e per renderla più plausibile ma è abbastanza chiaro, riflettendoci un pochino, che difficilmente un dispositivo di decriptazione può scoprire un carattere alla volta: il sistema di sicurezza non da risposte sulla correttezza o meno del singolo carattere, è l’intera password che deve essere indovinata, tutta in un unico tentativo!

 

Se la password per l’accesso al mio computer fosse la tanto vituperata e sconsigliata stringa “password” non riuscirei mai a violare l’accesso al mio computer provando a scoprire il primo carattere “p” (quindi, diciamo, dopo circa 16 tentativi, se parto dalla “a”) per poi passare al secondo “a” e così via: anche digitando casualmente i caratteri “passwor”, mancando la “d” dell’ottavo carattere, il sistema non mi consentirà l’accesso.

 

La stessa cosa, come tutti sanno, vale per un numero di telefono: posso anche indovinare quasi tutte le cifre ma se ne manca anche solo una, non riuscirò a chiamare la persona che sto cercando.

 

Sembra lapalissiano asserirlo ma in una ricerca di una specifica stringa all’interno di uno spazio sequenziale più o meno ampio (per esempio il numero di cellulare 321 1234567) non si conosce il risultato della ricerca: non posso sapere quanto mi sia avvicinato o meno al risultato.

 

Se chiamo il numero di cellulare 321 1234568 al posto del corretto 321 1234567 non c’è una voce che mi dice “attenzione, il numero da lei selezionato è corretto per 9 cifre, mentre la decima è sbagliata”, oppure “attenzione, il numero da lei selezionato non è corretto: sottragga uno dall’ultima cifra per ottenere il numero di Riccardo”.

 

E’ importante quindi chiarire sin da subito che, rispetto a questo fatto, né la mutazione casuale né la selezione naturale hanno la possibilità di “indovinare” tantomeno di “prevedere” la struttura di sequenze nucleotidiche talmente lunghe da costituire funzioni biologiche complete: la prima non possiede finalità di nessun tipo ed opera in maniera completamente casuale – sebbene ultimamente si stia dibattendo anche su questo – mentre la seconda, sebbene legata a dinamiche meno casuali e che hanno degli scopi, come riproduzione o sopravvivenza, non può certo “prevedere” l’organismo (o la funzione, il metabolismo, l’arto) che costituirà un vantaggio dal punto di vista evolutivo.

​​ 

La mutazione casuale, causata da interferenze chimiche o malfunzionamento della replicazione del DNA, che trasforma un nucleotide di DNA adenina (“A”) nell’altra purina, ovvero la guanina (“G”), non fa nient’altro che modificare la struttura chimica del nucleotide, senza “prevedere” quale sarà il risultato per la sequenza di DNA che lo ospita.

 

Come è chiaro quindi, entrambe queste “forze evolutive” non hanno “visibilità” sulla composizione della sequenza finale che, per esempio, dovrà avere ​​ il gene che codifica un nuovo enzima.

 

Inoltre, da un punto di vista dell’informazione biologica della sequenza, nessun tipo di relazione fisico-chimica lega la presenza di una adenina in successione ad una guanina, come per nessun altro nucleotide, esattamente come la prima cifra di un numero telefonico non ha legami di alcun tipo con la seconda: formulando la sua ipotesi della sequenza, Crick aveva già compreso nel ’58 che la sequenza dei nucleotidi determinava la sequenza degli amminoacidi delle proteine sulla base di un codice e che questa sequenza non aveva regole chimico–fisiche che la governavano se non quelle legate al codice che le interpretava.

 

La selezione naturale, che più che un processo vero e proprio è un risultato, consentirà a quell’allele di sopravvivere o no rispetto alla sua precedente “versione” in base a tanti fattori (ambiente, popolazione, vantaggi ottenuti): se però la “cifra aggiunta” alla “password”, ovvero il nucleotide aggiunto o mutato, non è (i) immediatamente quello corretto per realizzare un ripiegamento proteico che (ii) possieda una funzione la quale (iii) conferirà un vantaggio evolutivo, il “sistema” non “consentirà l’accesso” al vantaggio adattativo dell’organismo.

 

E’ vero che la struttura delle proteine non ha sempre una rigidità sequenziale tale da rendere funzionale o vantaggiosa solo una specifica sequenza e soltanto quella ma l’ambito all’interno del quale ci muoviamo ha una quantità così esigua di spazio – o isola - funzionale rispetto all’enorme vastità - oceano – di possibili combinazioni che i numeri in gioco fanno impallidire qualunque analogia statistica facilmente comprensibile, come quella legata al mondo delle telecomunicazioni considerata sopra.

 

Entriamo nel merito al livello più basico in cui l’evoluzione opera, ovvero quello molecolare: è a quel livello in cui il nostro “diavolo” si nasconde dietro i “dettagli” che, come vedremo, sono meno dettagli di quanto ci si aspetterebbe.

 

Nel suo articolo “Estimating the Prevalence of Protein Sequences Adopting Functional Enzyme Folds” [3], il biologo molecolare Douglas Axe ci da un’idea chiara in merito dimostrando come la “prevalenza complessiva di sequenze che esibiscono una specifica funzione da parte di qualunque ripiegamento [proteico] della dimensione di un dominio può essere così rara come 1 su 10^77, aggiungendo prove relativamente al fatto che i ripiegamenti [proteici] funzionali richiedono sequenze altamente straordinarie”.

 

Ovvero, una qualunque struttura di ripiegamento proteica del livello di un dominio (nell’ordine dei 150 amminoacidi) ha una rarità funzionale di 1 sequenza su 100.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000, ovvero una sequenza su 10^77 sequenze può avere una qualche funzione, tutte le altre no.

 

Consideriamo che si stimano 1 x 10^80 atomi nell’universo: è un isola funzionale della dimensione di un batuffolo di cottone nella Via Lattea.

 

Non si sostiene certo che una sequenza tanto rara debba essere comparsa improvvisamente nel corso della storia della vita sulla terra ma, data tale rarità funzionale, permeante il mondo dell’informazione biologica, diventa molto complicato sostenere che mutazioni causali abbiano potuto modellare i polipeptidi - anche potendone ipotizzare di sensibilmente più piccoli, nonostante gli ostacoli chimico-fisici che presenterebbe la loro lunghezza ridotta - fino ad arrivare a sequenze tanto rare funzionalmente, il tutto attraverso una selezione che abbia fornito un “vantaggio evolutivo” ad ogni passo.

 

Il tutto senza un modello che ne descriva i passaggi ad un livello di dettaglio accettabile, in grado di fornire un minimo di “storia” a livello molecolare di come questo sia possibile: sembra lampante sostenere che come non era necessario elaborare complessi algoritmi a Riccardo per rendersi conto che Giovanni non poteva dire la verità in merito al suo numero di telefono, così non lo è per qualunque persona ragionevole che rifletta sul fatto che una proteina di 150 amminoacidi è solo una delle decine e decine di migliaia che compongono, per esempio, un genoma di un essere umano o delle centinaia e centinaia che compongono quello di un batterio, tutte funzionalmente specificate e rarissime funzionalmente, oltre che olisticamente interconnesse.

 

E’ possibile anche solo guardare indietro nel tempo ricostruendo passo-passo una tale ipotesi? Allo stato delle attuali conoscenze sulla materia sembra proprio di no, in quanto la nostra comprensione della struttura di un dominio proteico non ci consente di farlo.

 

Quello che però è possibile fare è verificare il ritorno sperimentale dei laboratori per vedere se quanto ci risulta dai calcoli effettuati sulle complesse strutture dell’informazione biologica corrisponde a quanto è riscontrabile nelle piastre di Petri, nei microscopi e nelle provette.

 

 

Il riscontro sperimentale

 

Nell’articolo “EXPERIMENTAL EVOLUTION, LOSS-OF-FUNCTION MUTATIONS,

AND “THE FIRST RULE OF ADAPTIVE EVOLUTION” ​​ [4] il biochimico statunitense Michael J. Behe analizza quanto risulta dagli esperimenti degli ultimi quaranta anni in merito, cercando di scoprire, sempre a livello molecolare, se le mutazioni selezionate negli organismi adattati ai più svariati esperimenti possono insegnarci qualcosa sulla tendenza dell’informazione biologica e sulla potenzialità dell’evoluzione.

 

Ebbene, lo studio dimostra molto chiaramente che i cambiamenti adattativi sono per la stragrande maggioranza dovuti a perdita o modificazione di informazione biologica costituente una funzione pre-esistente e rarissimamente (quasi trascurabilmente) ad un guadagno della stessa.

 

In sostanza, l’evoluzione è molto valida come processo per il miglioramento di una funzione pre-esistente in base alle variazioni ambientali ed alle dinamiche delle popolazioni ma risulta praticamente inadatta all’innovazione, alla comparsa ex novo di funzioni molecolari, alla creazione di informazione biologica che abbia specifiche funzioni.

​​ 

Un esperimento molto famoso che Behe prende in considerazione ma che vale la pena di essere citato è quello di Richard Lenski: il “LTEE” (Long Term Evolutionary Experiment).

 

Il biologo evolutivo ha iniziato e sta continuando a “far evolvere” Escherichia coli dal 1988: partendo da 12 popolazioni identiche di batteri, li ha seguiti e selezionati nelle loro replicazioni arrivando a coprire qualcosa come 60.000 generazioni.

 

Tra i numerosi articoli scientifici pubblicati su questo rimarchevole esperimento a lungo termine e tra le diverse modificazioni ed adattamenti peculiari riscontrati dal sequenziamento dei procarioti immersi in terreni di crescita che si sono susseguiti, forse il più famoso è stato quello che documentava l’utilizzo di una nuova sorgente energetica, il citrato, sorgente che normalmente i batteri in questione non sono in grado di utilizzare in condizioni aerobiche.

 

Gli E. coli normalmente trasportano e metabolizzano citrato ma lo fanno in condizioni di assenza di ossigeno: semplificando, la modificazione della funzione ad un certo punto vide, tra le altre cose, un raro evento chiave di replicazione anomala della regione genomica per la regolazione del trasportatore del citrato, replicazione che avvenne attraverso l’amplificazione di un promotore per la trascrizione, normalmente attivato in contesti specifici: successive amplificazioni affinarono ulteriormente la funzione.

 

L’informazione biologica sequenziale relativa alla struttura molecolare del trasportatore è comparsa ex novo? No. Il trasportatore è stato modificato nella sua struttura per trasportare molecole di citrato rispetto ad altre sostanze? No. Molto semplicemente, il promotore della sua trascrizione ha smesso di essere “considerato” dai macchinari molecolari solo in determinati contesti, i quali, da quel momento in poi, lo hanno invece prodotto sempre, ovvero senza la regolazione causale che operava in precedenza.

 

Manco a dirlo, questa scoperta venne ai tempi molto pubblicizzata negli ambienti accademici come una meravigliosa dimostrazione del potere evolutivo ma in seguito venne poi ridimensionata notevolmente: Scott Minnich ed altri hanno recentemente dimostrato che [5] “la rarità del mutante del LTEE fu un artefatto delle condizioni sperimentali e non un evento evolutivo unico. Nessuna nuova informazione genetica (nuova funzione di gene) si è evoluta”.

​​ 

Il meccanismo evolutivo di selezione a seguito della mutazione casuale favorì certi mutanti, sebbene quegli E. coli sopravvissuti persero di fatto la capacità di regolare la gestione della metabolizzazione del citrato in base alle condizioni ambientali, acquisendo quella di averlo sempre attivo: ovvero, un po’ come rompere il deviatore per l’accensione degli abbaglianti, ritrovandoseli sempre accesi; sicuramente un vantaggio guidando su strade deserte e buie, ma altrettanto certamente una perdita della funzione di scelta dell’utilizzo degli stessi attraverso un deviatore e in alternativa agli anabbaglianti, per non dire un favore alle aziende produttrici di fanali e di batterie..

 

Ricapitolando, quindi, i numeri in gioco sono enormi, talmente grandi, anche per una sola proteina medio-piccola che anche 60.000 generazioni di batteri coltivati in pressione selettiva per sviluppare qualcosa di “innovativo” non producono nient’altro di più interessante della perdita nella regolazione della produzione di un metabolismo di scorta: nessuna nuova informazione biologica funzionalmente specificata.

 

E questo è perfettamente in linea praticamente con tutti gli esperimenti degli ultimi 40 anni di ricerca scientifica.

 

Eppure, il gradualismo è uno dei due approcci più classici della teoria evolutiva e potrebbe apparire anche come il più ragionevole; ma quello che la scienza sperimentale ci ha rivelato ci fa concludere che come non era possibile per Riccardo accettare che Giovanni avesse indovinato il suo numero una cifra alla volta così non può essere possibile accettare il gradualismo senza l’importante ritorno sperimentale ma semplicemente sulla base dell’unica alternativa rimasta che faccia appello al naturalismo metodologico, ovvero accettare la comparsa di sequenze geniche così complesse che prendono forma un nucleotide alla volta.

 

Ma che dire se tutto venisse fuori all’improvviso? Se il gradualismo fosse solo un ipotesi di un naturalista che non poteva conoscere le complessità della vita a livello molecolare e le cose fossero andate molto diversamente, a salti?

 

Punk Eek” genetico

 

L’equilibrio punteggiato di Gould ed Eldredge negli anni ’70 ha cercato di spiegare il saltazionismo chiaramente riscontrabile nelle forme fossili.

 

L’assenza di un netto gradualismo anatomico degli organismi pietrificati, la stasi della gran parte delle forme viventi e soprattutto la comparsa istantanea – da un punto di vista geologico - di enormi quantità di varietà e di una stupefacente complessità ha spinto alla formulazione di un ipotesi opposta a quella genialmente avanzata da Darwin.

 

Ma questa formulazione – insieme a tutte le sue articolazioni – ha mancato sia di dimostrare, ma anche solo di sottoporre in modo credibile, lo specifico processo che abbia potuto consentire queste “esplosioni” di informazione biologica, questi salti innegabili che si vedono cercando organismi tra le rocce.

 

Ecco allora tentare la strada delle ipotetiche soluzioni emerse con lo studio della biologia dello sviluppo: con l’evo-devo si è tentato di provare che piccoli cambiamenti nelle reti di regolazione dei geni dello sviluppo (dGRN) avrebbero potuto facilmente modificare gli organismi con grandi “salti” di innovazione funzionale, dando per scontato che l’informazione biologica funzionalmente specificata potesse comparire intervenendo a livello “gerarchico” più elevato, senza specificità, quasi “a cascata”.

 

Questo non è stato il caso: l’ormai purtroppo ex biologo dello sviluppo della Caltech Eric Davidson, uno dei massimi esperti in questo campo, spiega quanto questi geni regolatori possano essere flessibili dichiarando che [6] mutazioni in questi geni portano a ​​ “perdite catastrofiche di parti del corpo” degli organismi. Questi “circuiti”, come giustamente vengono descrittivamente chiamati, se interrotti portano sempre a “conseguenze osservabili.. Visto che queste conseguenze sono sempre catastroficamente negative, la flessibilità è minima e visto che i sotto-circuiti sono tutti interconnessi, l’intera rete prende parte a quello che è l’unico modo per far funzionare le cose e in effetti gli embrioni di ogni specie si sviluppano in un solo modo.. L’interferenza con l’espressione di uno qualunque [di questi geni di regolazione] attraverso la mutazione o la manipolazione sperimentale produce gravi effetti sulla fase di sviluppo che avviano. Questo accentua la conservazione selettiva dell’intero sotto-circuito, pena la catastrofe dello sviluppo.”

 

Come lui molti altri esperti sollevano grossi dubbi sull’ipotesi secondo la quale l’evoluzione avrebbe potuto modificare leggermente un rete di regolazione dei geni dello sviluppo per ottenere non modificazioni funzionali privi di conseguenze catastrofiche o addirittura innovazione biologica.

 

E’ noto che per aggiornare un sistema operativo di un computer serve installare aggiornamenti specifici che vanno a sostituire parti di codice con “bachi” o falle di sicurezza in modo altamente specifico: sono progettati e realizzati per riconoscere una precisa stringa per rimpiazzarla con una nuova, in cui è presente la correzione dell’errore; sarebbe assurdo pensare di ottenere questo stesso risultato tentando di modificare casualmente le miliardi di righe di codice del software del sistema operativo già installato, decompresso e compilato.

 

Allo stesso modo, credere di poter ottenere risultati addirittura migliori modificando direttamente i file di installazione del sistema operativo quando ancora sono compressi, sempre attraverso interventi casuali sui bit che lo costituiscono, in modo da modificarne i dati ancora prima che questi vengano estratti, espansi ed installati, sembra logicamente una complicazione della questione piuttosto che una sua soluzione.

 

Questo indipendentemente sia da quanti “programmatori improvvisati” dovessero tentare l’impresa che da quanti computer ci dovessero essere a disposizione.

 

Oltre che ad un programma software, la specificità dell’informazione funzionale si può logicamente paragonare al significato di una frase: la sequenza delle lettere, degli spazi e della punteggiatura, elementi che possono essere disposti in qualunque ordine, costituisce significato e senso solo se disposto in un preciso ordine, altamente specifico.

 

Supponiamo di avere a disposizione un libro di 400 pagine nel quale, nelle prime 300 pagine, viene narrata una avvincente storia dalla trama intrecciata, con profondi significati e morali da trasmettere al lettore mentre nelle ultime 100 viene insegnato al lettore come poter scrivere altre pagine da allegare al libro, quali concetti esprimere e come, con che tono, quali segreti rivelare e come continuare la storia.

 

Quanto sarebbe logico pensare che, modificando a caso le istruzioni contenute nelle ultime cento pagine, si potrebbe ottenere una nuova storia molto diversa sia da quella contenuta nelle prime 300 pagine che da quella insegnata dalle ultime cento?

 

Tornando al tema principale, in effetti va detto che le teorie saltazioniste provenivano dalla sintesi moderna neo-darwinista, che si basava su un periodo di studio della biologia in cui il mondo molecolare era vagamente intuito e genetica delle popolazioni e storia naturale componevano l’ossatura concettuale dell’intera teoria.

 

Invece, quelle che tempo fa si potevano definire analogie ma che oggi possiamo descrivere come vere e proprie corrispondenze, anche dettagliate, vedono la cellula come un centro

auto-costruente ed auto-aggiornante di gestione dell’informazione biologica, che fa impallidire i nostri più complessi sistemi software.

 

E’ vero, le cellule si costruiscono da sole mentre i computer no, quindi l’analogia potrebbe risultare fallace sotto certi punti di vista: ma è proprio questa e molte altre caratteristiche uniche che rendono la vita ancora più difficile da spiegare se non attraverso ragionamenti e considerazioni che facciano appello alla logica, logica che punta inevitabilmente a quello che Dawkins menzionava come apparente dallo studio della vita, ovvero un progetto ed uno scopo.

 

E’ un argomento basato sull’ignoranza? No, è un argomento positivo, basato su quello che si sa e non su quello che non si sa, sulla nostra uniforme e ripetuta esperienza di causa ed effetto: l'intelligenza è una condizione essenziale e sufficiente per la produzione di nuova informazione biologica complessa e funzionalmente specificata.

Vediamo un altro campo, la genetica, in cui questo si è rivelato ancora una volta vero, nel corso del progredire della scienza.

 

I geni orfani

 

Francois Jacob, emerito biologo molecolare di fama mondiale, scrisse negli anni ‘70 che “l’evoluzione non produce innovazioni dal nulla. Opera su quanto già esiste, o trasformando un sistema per conferirgli nuove funzioni o combinando diversi sistemi [già esistenti] per produrne uno più elaborato.. Una sequenza di un migliaio di nucleotidi codifica una proteina di medie dimensioni. La probabilità che una simile proteina funzionale appaia ex novo dall’associazione casuale degli amminoacidi è praticamente zero. In organismi così complessi ed integrati come quelli che già vivevano tanto tempo fa, la creazione di sequenze nucleotidiche interamente nuove non era di alcuna importanza per la produzione di nuova informazione [biologica]”.

 

Questo punto di vista, consistente con quanto emerso finora dalla nostra breve analisi, sembrava scontrarsi con il fatto che la comparazione genomica tra organismi simili o diversi rivelava una variazione più o meno ampia: sulla base di questa condizione - e sulla base dell’assunto secondo il quale la similarità potesse significare relazione evolutiva – si delineò una filogenia tra gli organismi tracciata in base alla variazioni di questi geni.

 

Questo era completamente consistente con l’ipotesi gradualistica: se tutto si è modificato partendo da un primo unico organismo, da una prima unica cellula e, per riduzione, da una prima ed unica sequenza, tutto dovrebbe risultare gradualisticamente diverso.

 

Però le cose non andarono in questo modo: mano a mano che i DNA dei vari organismi venivano sequenziati ci si rese conto che erano presenti quantità ingenti di geni completamente unici.

 

Come a volte succede, l’utilizzo di terminologie molto tecniche, sconosciute ed incomprensibili alle masse – come l’MNO e l’MNVO citati boriosamente da Giovanni a Riccardo - protegge gli scienziati da scomode spiegazioni e da palesi ammissioni di incongruenze difficilmente inspiegabili: in questo caso il nome “geni tassonomicamente ristretti” annebbiava il loro status completamente contrario al paradigma gradualistico, ovvero quello di sequenze funzionali presenti in particolari gruppi tassonomici ma non presenti nei loro più diretti antenati, senza omologie note.

 

Sono rari, pochi? No, compongono dal 10 al 30% del DNA in cui sono codificati

 

In questo caso qualcuno avrà forse dubitato vigorosamente e pubblicamente del paradigma gradualistico, prendendo in considerazione questa palese, enorme contraddizione?

 

Il gradualismo e le relazioni filogeniche sono tra gli argomenti più dibattuti anche per questi motivi, sebbene la cosa non emerga alle masse: purtroppo la cosa triste, in questo caso, è stata la spiegazione fornita dagli evoluzionisti a queste scoperte.

 

I geni orfani hanno dato a questi scienziati la dimostrazione che i geni che compaiono dal niente esistono: la prova sta nel fatto che sono stati trovati.

 

Un ragionamento circolare di questo tipo non può che saltare all’occhio di chi cerca di usare la logica e quello che la scienza insegna per capire i misteri della vita: la spiegazione per la comparsa di una sequenza di informazione biologica della complessità di un gene, funzionale e specifico, non può essere la sua stessa esistenza.

 

..Ogni gruppo animale possiede però anche un ridotto numero di geni che, al contrario, sono estremamente variabili fra specie strettamente correlate, se non addirittura unici. Questi geni sono noti come "orfani", "nuovi" o "tassonomicamente ristretti".

 

I dati indicano quindi che i geni orfani sono coinvolti nella generazione di nuove caratteristiche morfologiche che individuano specie differenti, indicando una strada per raggiungere una maggiore comprensione di come l'evoluzione operi a livello di particolari gruppi animali. L'emergenza di geni orfani può riflettere i processi evolutivi che consentono agli animali di adattarsi nel modo migliore a cambiamenti ambientali e a nuovi habitat” [7].

 

Come avviene questa emergenza? Attraverso quale processo? Perché contravvengono al processo gradualistico, contrariamente a tutto il restante genoma? Come compaiono le strutture per la regolazione di tali geni? Anch’esse istantaneamente?

 

In una recente review ci viene proposto che [8] “i geni orfani emergono continuamente in ogni genoma e che, almeno negli eucarioti, essi emergono principalmente attraverso l’evoluzione de novo”.

 

Parti nuove utilizzate senza legami con strutture omologhe è una tipica condizione di un progetto realizzato da una intelligenza; la similarità non è per forza indicatrice di relazione evolutiva ma anche di progetto in comune, soluzioni simili o identiche a problemi simili o identici.

 

Intelligenza nell’informazione e progetto

 

Questa breve trattazione ha voluto esporre come il limite dell’evoluzione sia proprio l’innovazione dell’informazione biologica.

 

L’adattamento degli organismi è innegabile, come lo è anche l’efficienza dei processi evolutivi che consentono ad un batterio di sviluppare la resistenza ad un antibiotico.

 

Ma questo ed altri processi sono perdita di informazione biologica funzionalmente specificata, non guadagno.

 

Il limite dell’evoluzione è proprio costituito da questa incapacità di creare innovazione, essendo questa costituita da nuova informazione di quella specifica natura, contenuta a livello molecolare, per esempio, in una nuova funzione espressa in una proteina, che può formare, insieme ad altri polipeptidi, un nuovo enzima, che può costituire un nuovo percorso metabolico, che può andare a creare un nuovo organo, che può fare parte di un nuovo bauplan e quindi un nuovo organismo.

 

Per usare una metafora di Behe, l’evoluzione è molto efficiente a bruciare i ponti di una città invasa da un esercito nemico ma lo è molto meno a costruirli.

 

Il DNA, dentro al quale, a dispetto delle previsioni evoluzionistiche relative al “junk-DNA” - ​​ ancora una volta errate - vengono scoperte aree sempre maggiori di funzionalità – come il progetto ENCODE ha ampiamente dimostrato - è sempre più ricco di informazione e l’epigenetica, ovvero i meccanismi molecolari che spengono o accendono i geni regolandone l’impiego, non fa che costituire un ulteriore livello di complessità impensabile per un processo casuale di mutazione e selezione.

 

L’informazione biologica funzionalmente specificata non può essere legata a processi causali perché c’è un solo modo per generarla: l’intelligenza.

 

E questo è quanto sia le scienze matematiche che quelle sperimentali dimostrano, oltre alla logica.

 

Ma non solo.

 

Il SETI è una istituzione corporativa statunitense per la ricerca e per progetti educativi riguardanti la vita nell’universo e l’intelligenza extraterrestre.

 

Nella pagina delle FAQ viene riportata la seguente domanda:

 

Come sapete di avere rilevato un segnale extraterrestre intelligente?”

 

La risposta è la seguente:

Ogni segnale inferiore a circa 300 Hz deve essere, per quanto ne sappiamo prodotto artificialmente .. Altre caratteristiche rivelatrici includono un segnale completamente polarizzato o l’esistenza di informazioni codificate nel segnale” [9].

Chiediamoci: perché informazioni codificate in un segnale radio devono rappresentare una indicazione ​​ inequivocabile di intelligenza, mentre per spiegare la comparsa e la irraggiungibile complessità di quelle codificate in una molecola nanometrica all’interno di una cellula si devono invocare ciecamente processi casuali incapaci anche solo di avvicinarsi ad una tale quantità e qualità di informazione?

Forse perché ideologie che non hanno nulla a che fare con la scienza stanno dietro a queste spiegazioni, costringendo paradossalmente chi deve darle a rinnegare la logica e, a volte, la stessa scienza a cui vogliono così strettamente conformarsi.

--

Riferimenti e citazioni:

[1] "Revisiting Evolution in the 21st Century", University of Chicago, October 3, 2010.

[2] “DNA at 60: Still Much to Learn”, Nature magazine, April 28, 2013.

[3] “Estimating the Prevalence of Protein Sequences Adopting Functional Enzyme Folds”, J. Mol. Biol. (2004).

[4] “EXPERIMENTAL EVOLUTION, LOSS-OF-FUNCTION MUTATIONS, AND “THE FIRST RULE OF ADAPTIVE EVOLUTION”, THE QUARTERLY REVIEW OF BIOLOGY, December 2010.

[5] “Rapid Evolution of Citrate Utilization by Escherichia coli by Direct Selection Requires citT and dctA”, Van Hofwegen DJ, Hovde CJ, Minnich SA, Journal of Bacteriology, February 2016.

[6] Davidson and Erwin, “An Integrated View of Precambrian Eumetazoan Evolution”.

[7] http://www.lescienze.it/news/2008/11/18/news/i_geni_orfani_e_l_evoluzione-577604/

[8] Diethard Tautz and Tomislav Domazet-Lošo, Nature Reviews Genetics, Otober 2011.

[9] http://www.seti.org/faq#seti1

 

(Di C. A. Cossano con la collaborazione di F. Arduini e C. Puliti; editing e pubblicazione D. Ricciardulli)

Mostra di più

Articoli Correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Pulsante per tornare all'inizio