La nuova fisica statistica e la biologia

Facebook
Twitter
LinkedIn

1 Introduzione I rapporti tra biologia e fisica sono stati spesso molto intesi, e a volte non facili. In questo secolo ci sono stati molti scienziati, che dopo essersi formati come fisici, sono passati a lavorare in biologia: fra i casi più famosi ricordiamo, Francis Crick (lo scopritore con Jim Watson della doppia elica del DNA), Max Delbrück e Salvatore Luria (premi Nobel per i loro lavori sulle mutazioni). Tuttavia questi studiosi, una volta cambiato il campo di ricerca, lavoravano con lo stesso stile degli altri biologi e sfruttavano in maniera ridotta la loro formazione come fisici.

Attualmente esiste una disciplina, la biofisica, ma in questo caso spesso la fisica è utilizzata come mero strumento al servizio della biologia, (una situazione simile si riscontra per la biochimica). In entrambi i casi la chimica e la fisica forniscono le spiegazioni di quello che avviene al livello più basso (molecole e forze) che vengono poi utilizzate in un quadro dominato dai concetti tipici della biologia.

In questi ultimi tempi la situazione sta incominciando a cambiare, in quanto recentemente è nato un tentativo di sfruttare gli ultimi sviluppi della fisica teorica per portare avanti la ricerca biologica in modo diverso. Infatti ci sono degli studiosi che cercano di utilizzare le metodologie proprie della fisica per studiare alcuni dei problemi fondamentali della biologia. Questo fenomeno avviene per cause interne ad entrambe le discipline.

2 La fisica al giorno d’oggi

Un ciclo della storia della fisica si è esaurito e se ne sta aprendo uno nuovo con problematiche diverse da prima. Per un lunghissimo periodo uno dei problemi chiave consisteva nel trovare le leggi fondamentali della natura, ovvero nel cercare di determinare i costituenti elementari della materia e le forze che agivano fra di loro. Ancora venti anni fa la struttura dei componenti del nucleo (protoni e neutroni) e l’origine delle forze nucleari era ignota: c’erano accanite discussioni se i quark fossero o non fossero i costituenti del protone e non si aveva nessuna idea precisa di quale fosse la natura delle forze fra questi ipotetici quark.

Adesso sappiamo quasi tutto su i quark e le loro interazioni: le leggi della fisica, dai nuclei atomici alle galassie, sembrano essere del tutto assodate ed è opinione corrente che il futuro non dovrebbe riservarci sorprese (almeno la stragrande maggioranza degli scienziati non se le aspetta); al contrario alle scale piccolissime (molto più piccole di un nucleo atomico) o alle grandissime scale (l’universo intero) ci sono molte cose che non comprendiamo e sotto certi rispetti brancoliamo nella più totale ignoranza. Forse nel campo della fisica il più grande mistero ancora da svelare è l’origine delle forze gravitazionali e il loro comportamento a distanze estremamente piccole. Si tratta di un problema difficile, forse troppo difficile, anche perché gli esperimenti cruciali riguardano particelle di energia miliardi di miliardi di volte superiore a quella prodotta attualmente in laboratorio e quindi impossibili da effettuare. Tuttavia per le scale che interessano le normali attività umane, nell’intervallo che va dalla fisica alle evoluzioni stellari abbiamo una formulazione completa e soddisfacente delle leggi.

Anche se volte capita che qualche fisico si senta come l’Alessandro Magno della poesia, che piange di fronte al mare perché non ci sono più nuove terre da conquistare, questa non è la sensazione della maggioranza. Infatti la conoscenza delle leggi fra i costituenti elementari di un sistema non implica affatto la comprensione del comportamento globale. Per esempio non è affatto facile dedurre dalle forze che agiscono fra le molecole dell’acqua perché il ghiaccio sia più leggero dell’acqua che (al contrario della maggior parte delle sostanze) diventa più densa quando viene raffreddata. La risposta a questo tipo di domande si può ottenere utilizzando la meccanica statistica. Questa disciplina, nata a cavallo fra la fine del secolo scorso e l’inizio di questo secolo con i lavori di Boltzmann e Gibbs, si occupa del problema di studiare il comportamento di sistemi composti da molte particelle, non determinando la traiettoria delle singole particelle ma utilizzando metodi probabilistici.

Forse il risultato più interessante della meccanica statistica consiste nell’aver capito fino a fondo come sia possibile l’emergenza di comportamenti collettivi: mentre per pochi atomi di acqua non possiamo dire se essi formino un solido o un liquido e quale sia la temperatura di transizione, queste affermazioni assumono una natura ben precisa solo nel caso in cui consideriamo un gran numero di atomi (più precisamente nel caso in cui il numero di atomi tenda ad infinito). Le transizioni di fase nascono quindi come effetto del comportamento collettivo di molti componenti. Negli ultimi decenni la meccanica statistica si è sbizzarrita a studiare le transizioni di fase le più varie in cui nascono comportamenti collettivi diversi: basti pensare alla transizione (che avviene abbassando la temperatura) per la quale un metallo normale diventa improvvisamente superconduttore.

Proprio in questi ultimi venti anni le capacità predittive della meccanica statistica sono enormemente aumentate, sia per il raffinamento delle analisi teoriche, sia per l’uso di un nuovo strumento di indagine, il calcolatore elettronico. In particolare modo sono stati ottenuti risultati estremamente interessanti nello studio di sistemi in cui le leggi stesse stesse sono scelte in maniera casuale, ovvero i cosiddetti sistemi disordinati.

3 Gli effetti dell’uso dei calcolatori

Il calcolatore elettronico ha molto cambiato il panorama della fisica teorica. Una volta il passaggio dalle leggi alle conseguenze delle leggi era effettuato mediante argomentazioni che potevano sia ricorrere a degli strumenti matematici rigorosi, sia basarsi (e questo accadeva spesso) su una logica più intuitiva e sull’analogia. Nell’immaginario scientifico il fisico teorico aveva bisogno solo di carta e matita per fare le sue previsioni, in opposizione al fisico sperimentale che aveva necessità di costose apparecchiature. I calcolatori attuali hanno enormemente ampliato le capacità di calcolo (esistono calcolatori capaci di fare circa un miliardo di operazioni al secondo su numeri di 7 cifre). Le capacità di calcolo sono quindi aumentate di più di un miliardo di volte: imprese una volta considerate impossibili sono diventate del tutto banali. Se si voleva calcolare teoricamente la temperatura di liquefazione di un gas (per esempio l’argon) supponendo di conoscere già la forma delle forze fra i vari atomi, bisognava fare delle approssimazioni che non erano del tutto giustificate e, solo sotto queste ipotesi, mediante semplici calcoli si poteva ottenere una predizione per la temperatura di liquefazione, che non era in ottimo accordo con i dati sperimentali (un errore tipico potrebbe essere il 10% sulla temperatura assoluta). L’unica strada per migliorare l’accordo fra le previsioni e l’esperimento consisteva nel rimuovere a poco a poco le approssimazioni; questo schema teorico, noto come la teoria delle perturbazioni, conduce a delle espressioni molte complicate e a dei calcoli molto noiosi che possono essere fatti a mano o, se necessario, dal calcolatore.

Il punto di vista completamente nuovo che si diffonde negli anni ’70 insieme con l’uso intensivo dei calcolatori (Livi, Parisi, Ruffo e Vulpiani 1986), consiste nel non fare approssimazioni sul moto delle particelle, ma di calcolare esattamente le loro traiettorie; per esempio possiamo simulare il comportamento di un certo numero di atomi di argon (diciamo 8000) dentro una scatola di dimensioni variabili e di osservare quello che succede: ovvero se l’argon si comporta come un liquido o come un gas. Il peso computazionale di una tale simulazione è enorme; bisogna calcolare le traiettorie di 8000 particelle e seguirle per un tempo sufficientemente elevato per poter trascurare la dipendenza dalla configurazione iniziale. Se pensiamo che i matematici del secolo scorso si sono scervellati per studiare le traiettorie di pochi pianeti, ci rendiamo conto che un simile approccio non era nemmeno immaginabile in assenza del calcolatore.

Uno dei motivi dell’interesse suscitato dalle simulazioni consiste nel fatto che si possono simulare anche sistemi non esistenti in natura, ma più semplici dal punto di vista teorico. Questo permette alle simulazioni di diventare il laboratorio privilegiato per la verifica di nuove teorie che non potrebbero essere verificate direttamente nel mondo reale, troppo complicato. Ovviamente lo scopo finale è di applicare queste idee in casi concreti, ma questo può avvenire solo dopo che la teoria si è sufficientemente irrobustita e ha preso confidenza con se stessa nel confronto con le simulazioni.


4 I sistemi complessi

Il calcolatore ha giocato un ruolo fondamentale nello sviluppo delle moderne teorie riguardanti i sistemi disordinati e come vedremo di sistemi complessi. Per i sistemi complessi il discorso è delicato in quanto si tratta di un campo più nuovo, con caratteristiche interdisciplinari: basta pensare alle connessioni con la biologia, l’informatica, la teoria dei sistemi e l’ecologia. Nello stesso tempo si tratta di una campo molto alla moda, nonostante che stessa parola complesso scivola tra le mani di chi cerca di darne una definizione precisa. A volte si sottolinea il significato complicato, composto da molti elementi (una centrale nucleare è un sistema complesso, in quanto composto da centomila pezzi differenti), altre volte si sottolinea il significato incomprensibile (l’atmosfera è un sistema complesso, in quanto non si possono fare previsioni a lunga scadenza). Molto spesso in un congresso sui sistemi complessi ciascuno degli oratori usa la parola complesso con un accentuazione differente (Livi, Ruffo, Ciliberto e Buiatti 1988), (Peliti e Vulpiani 1988). A parte i problemi di definizione, le vere difficoltà nascono quando, dopo aver dichiarato che un dato sistema è complesso, si vuole utilizzare questa affermazione per ottenere risultati positivi e non per lavarcisi le mani limitandosi ad affermare che il sistema è complesso, quindi nessuna predizione è possibile.

Lo scopo di una teoria dei sistemi complessi è di cercare delle leggi che regolano il comportamento globale di detti sistemi, leggi fenomenologiche che non sono facilmente deducibili dall’analisi delle leggi che controllano ciascuno dei singoli costituenti. Facciamo un esempio evidente: il comportamento dei singoli neuroni è probabilmente ben compreso, ma non ci è affatto chiaro perché 10 miliardi di neuroni, collegati da centomila miliardi di sinapsi, formino un cervello che pensa. Come abbiamo già visto, l’emergenza di comportamenti collettivi è un fenomeno ben studiato dalla fisica in altri contesti: la cooperazione di tanti atomi e molecole è responsabile delle transizioni di fase (tipo acqua-ghiaccio o acqua-vapore); tuttavia nel caso dei sistemi complessi il comportamento globale del sistema non è così semplice come quello dell’acqua, che ad una data temperatura può stare in uno, o al massimo due stati (se si trascura il punto tricritico dove vapore, liquido e gas coesistono). Se assumiamo che un sistema complesso abbia necessariamente un comportamento complesso, la maggior parte dei sistemi studiati nel passato dai fisici avevano dei comportamenti semplici, come l’acqua, e non potevano essere considerati complessi. In questi ultimi anni i fisici, allo scopo di capire il comportamento di alcuni sistemi disordinati, come per esempio i vetri di spin, (leghe di oro e ferro che hanno un comportamento magnetico anomalo a basse temperature), hanno incominciato a ottenere alcuni risultati sulle proprietà di sistemi relativamente semplici, ma che hanno un comportamento complesso (Mézard, Parisi e Virasoro 1987, Balian, Maynard e Toulouse 1979). Le tecniche messe durante queste ricerche sono di carattere più generale di quello che si potrebbe credere considerando la loro origine vagamente esoterica e sono correntemente applicate nello studio delle reti neurali.

Molto spesso lo studio di sistemi complessi è stato portato avanti sia analiticamente, sia effettuando simulazioni su calcolatore e i vantaggi dei due approcci si combinano sinergeticamente. Infatti i calcolatori permettono di effettuare simulazioni di sistemi complessi con complessità crescente, in maniera di poter estrarre leggi quantitative e qualitative da sistemi di complessità moderata, prima di cimentarsi con sistemi veramente complessi. Il miscuglio di risultati analitici ottenuti su sistemi più semplici e di simulazioni numeriche di sistemi di complessità intermedia sembra essere molto efficace e notevoli progressi sono stati ottenuti in questi ultimi anni.

Una comprensione profonda del comportamento dei sistemi complessi sarebbe estremamente importante. In questi ultimi anni l’attenzione si è concentrata su sistemi composti da un gran numero di elementi di tipo diverso che interagiscono fra di loro secondo leggi più o meno complicate in cui sono presenti un grande numero di circuiti di controreazione, che stabilizzano il comportamento collettivo In questi casi, un punto di vista riduzionista tradizionale sembrerebbe non portare da nessuna parte. Un punto di vista globale, in cui si trascuri la natura delle interazioni fra i costituenti, sembra essere anch’esso inutile in quanto la natura dei costituenti è cruciale per determinare il comportamento globale.

La teoria dei sistemi complessi, che si vorrebbe costruire, ha un punto di vista intermedio: si parte sempre dal comportamento dei singoli costituenti, come in un approccio riduzionista, ma con in più l’idea che i dettagli minuti delle proprietà dei componenti sono irrilevanti e che il comportamento collettivo non cambia se si cambiano di poco le leggi che regolano la condotta dei componenti. L’ideale sarebbe di classificare i tipi di comportamenti collettivi e di far vedere come al cambiare delle componenti un sistema rientri in questa classificazione (Rammal, Toulouse e Virasoro 1986, Parisi 1990). In altri termini i comportamenti collettivi dovrebbero essere strutturalmente stabili (nel senso di Thom) e quindi suscettibili di classificazione, ahimè ben più complicata di quella fatta in Stabilità strutturale e morfogenesi (Thom 1975).


5 Un esempio di sistema complesso: i vetri di spin

In altri termini lo studio teorico non viene fatto su un singolo sistema, ma viene considerata simultaneamente una classe di sistemi, che differiscono gli uni dagli altri per una componente casuale. Il modo di procedere può essere compreso più facilmente se facciamo un esempio concreto. In una stanza ci sono tante persone che si conoscono e che hanno dei rapporti di simpatia o di antipatia fra di loro. Supponiamo di dividerle a caso in due gruppi e successivamente di domandare a ciascuna delle persone se vuole passare da un gruppo all’altro (la persona risponderà di sì seguendo le proprie inclinazioni); in caso di risposta positiva la persona cambia gruppo immediatamente. Dopo un primo giro, non tutti sono ancora soddisfatti: qualcuno che era cambiato di posto (o che non era cambiato al primo giro), vuole riconsiderare la propria situazione dopo i cambiamenti degli altri. Si effettua un secondo giro di spostamenti e si va avanti così finché non ci sono più richieste da parte di singoli. Successivamente, a uno stadio successivo, possiamo provare a spostare non solo i singoli, ma anche gruppi di persone, (può capitare infatti che un cambiamento di gruppo sia vantaggioso solo se fatto in compagnia), finché non si raggiunge uno stato di soddisfazione generale.

Il fatto che dopo un numero finito di giri tutte le richieste dei singoli sono soddisfatte dipende crucialmente dall’ipotesi che avviamo implicitamente fatto che il rapporto di simpatia sia simmetrico, ovvero se Tizio è simpatico a Caio, anche Caio è simpatico a Tizio. Possiamo avere situazioni asimmetriche: Tizio è simpatico a Caio, ma Caio non può sopportare Tizio. Se rapporti di questo tipo sono molto comuni il procedimento sopra indicato non tenderà mai ad uno stato stabile: Caio insegue Tizio che scappa e i due non si fermeranno mai. Il caso in cui il rapporto è asimmetrico differisce profondamente dal caso simmetrico; solo in questo caso le volontà dei singoli sono tutte orientate verso lo stesso scopo di ottimizzazione della soddisfazione generale.

Ovviamente la configurazione finale dipenderà dai rapporti fra le varie persone e dalla configurazione iniziale e quindi non è direttamente calcolabile in assenza di queste informazioni. Possiamo tuttavia pensare di calcolare approssimativamente delle proprietà generali di questa dinamica (per esempio quanti giri bisogna fare prima che tutti siano contenti) facendo l’ipotesi che la distribuzione delle amicizie e inimicizie sia casuale. Più precisamente supponiamo di sapere quale sia la distribuzione di probabilità delle amicizie; per esempio la probabilità che due persone scelte casualmente siano amiche è p, dove p è un numero compreso fra 0 e 1. Bisogna a questo punto verificare se questa modellizzazione dei rapporti è corretta o se invece la situazione reale non sia più complicata (per esempio possiamo introdurre una grado nell’antipatia e supporre che le persone che nella vita reale abitano vicino hanno dei rapporti molto intensi, ma sono praticamente indifferenti a persone che abitano lontano). Una volta che si è ottenuta una modellizzazione accurata della probabilità di distribuzione delle simpatie, possiamo cercare di fare delle previsioni sul sistema, previsioni che saranno puramente di natura probabilistica e che diventeranno sempre più precise (ovvero con un errore relativo sempre più piccolo), più il sistema diventa grande ed il numero di componenti tende ad infinito.

In questo contesto la probabilità è utilizzata in maniera differente da quella a cui siamo abituati. Mentre classicamente si suppone che il sistema si evolve con una dinamica talmente complicata per cui si può assumere che le sue configurazioni siano del tutto casuali (si pensi ad una moneta che viene lanciata) nel caso che consideriamo le leggi stesse che governano la dinamica del sistema sono scelte a caso prima di incominciare a studiare la dinamica.

Il sistema (nel caso simmetrico) che abbiamo precedentemente descritto corrisponde puntualmente (dal punto di vista matematico) ai vetri di spin dei fisici (Mézard, Parisi e Virasoro 1987, Balian, Maynard e Toulouse 1979), nel senso che se sostituiamo le parole simpatico ed antipatico con ferromagnetico e antiferromagnetico ed identifichiamo i due gruppi con spin orientati in direzioni differenti otteniamo una descrizione precisa dei vetri di spin. Infatti a basse temperature un sistema fisico si evolve in maniera di minimizzare la temperatura e questa dinamica è molto simile al processo di ottimizzazione appena descritto, a patto di identificare l’energia fisica con l’insodisfazione generale. In quest’ultimo decennio i vetri di spin sono stati intensamente studiati e attualmente siamo in grado di rispondere a molte delle domande che abbiamo fatto.

La caratteristica forse più interessante di questi sistemi è costituita dall’esistenza di un gran numero di stati di equilibrio differenti (se spostiamo una sola persona alla volta) e dalla grande difficoltà a trovare la configurazione ottimale, rispetto ad un cambiamento di un numero arbitrariamente alto di persone. I vetri di spin sono infatti uno degli esempi più noti di quei problemi di ottimizzazione (detti NP completi per motivi che non vale discutere in questa sede, Garey e Johnson 1969), la cui soluzione ottimale può essere trovata solo mediante un numero di passi estremamente alto (che cresce esponenzialmente col numero di elementi del sistema).

La presenza di un gran numero di diversi stati di equilibrio può essere considerata forse come una delle caratteristiche più tipiche di sistemi complessi (almeno in una delle tante accezioni del termine): ciò che non si modifica col tempo non è complesso mentre un sistema che può assumere molte forme diverse è certamente complesso. La scoperta inattesa fatta in quest’ultimo decennio è che la complessità emerge naturalmente dal disordine delle leggi del moto. Per ottenere un sistema complesso non dobbiamo sforzarci a scegliere delle leggi molto particolari: basta sceglierle a caso, tuttavia con delle distribuzioni di probabilità ben determinate. Questo risultato ha aperto la nuova prospettiva nello studio dei sistemi complessi di cui parlavamo prima. Si tratta di un campo nuovo ad affascinante, in cui i risultati vengono ottenuti molto lentamente anche a causa della novità della problematica e della necessità di utilizzare strumenti matematici nuovi rispetto a quelli a cui siamo abituati: basti dire che la teorie delle repliche, mediante la quale sono stati ottenuti i risultati più interessanti, non ha al momento attuale nessuna giustificazione dal punto di vista matematico.


6 I vetri di spin visti da vicino

In questo capitoletto, che può essere omesso dal lettore con scarsa familiarietà con la matematica, vengono esposti in forma precisa alcuni risultati ottenuti sui vetri di spin (Mézard, Parisi e Virasoro 1987).

Come abbiamo visto nel capitoletto precedente, i vetri di spin possono essere considerati come un processo di ottimizzazione globale in cui la funzione da minimizzare corrisponde all’energia del sistema. Più precisamente possiamo considerare un sistema descritto da N variabili si (i varia da 1 a N), che possono assumere due valori possibili (1 o -1) che corrispondono alle due possibili orientazioni degli spin (utilizzando la rappresentazione precedente introdotta alle due possibili scelte). Per ogni possibile coppia (i,k) viene introdotta una variabile Ji,k, che viene scelta casualemente 1 o -1. L’energia E è data dalla somma su tutte le coppie (i,k) di Ji,k si sk. Se Ji,k è negativo, la minimizzazione del contributo della coppia (i,k) all’energia E si ottiene scegliendo gli stessi valori per i due spin si e sk. Al contrario, se Ji,k è positivo la minimizzazione del contributo della coppia (i,k) all’energia E si ottiene scegliendo valori opposti per i due spin si e sk.

Scelte differenti delle variabili Ji,k corrispondono a sistemi diversi. La teoria dei vetri di spin fornisce delle stime precise sul comportamento dei sistemi nel limite in cui N tende ad infinito. Molte delle proprietà diventano infatti indipendenti dalla scelta di queste variabili per praticamente tutte le realizazzioni del sistema. In particolare il minimo dell’energia è appossimativamente dato da -.7633 N3/2.

Il processo di minimizzazione successiva descritto precedentemente corisponde a scegliere sequenzialmente per ogni i la variabile si in maniera di minimizzare il suo contributo all’energia. Se si parte da una configuazione casuale questa evoluzione porta ad un’energia finale proporzionale a -.73 N3/2 e quindi decisamente più grande di quella minima. Un procedemento di ricerca sequenziale del minimo, fatto per una variabile dopo l’altra, non porta quindi al minimo globale, ma semplicemente ad un minimo locale, ovvero ad una configurazione la cui energia non diminuisce cambiando un singolo spin alla volta. Il bloccarsi dell’evoluzione del sistema in un minimo locale, è anche connesso all’esistenza di un numero elevatissimmo di minimi locali. Infatti il numero totale di minimi locali differenti aumenta come 2.30 N (quasi come il numero totale di configurazioni che aumenta come 2N).

Il calcolo dell’energia minima non è affatto semplice e si fonda su alcune ipotesi che pur essendo molto ragionevoli non sono dimostrate da un punto di vista completamente rigoroso. Per calcolare l’energia minima è necessario calcolare contemporaneamente il numero delle configurazioni con energia vicina a quella del minimo e le correlazioni esistenti fra la differenza in energia e la distanza fa due configurazioni, definita come la percentuale di spin differenti. Un’analisi dettagliata mostra che le configuazioni con energia vicina alla minima possono essere classificate utilizzando una classificazioni ad albero, simile a quella utilizzata nella biologia. Questo risultato, completamente inaspettato, è molto interessanto in quanto mostra la grande ricchezza e complessità di un sitema apparentemente così semplice.

Una descrizione più dettagliata ci porterebbe troppo lontano dallo scopo del nostro articolo. Il lettore interessa è invitato a leggere articoli di rivista specializzati (per esempio Parisi 1990 e Parisi 1992b).


7 Il dilemma della biologia

La biologia si trova di fronte a dei problemi diversi, che nascono dallo spettacolare successo registrato in questi ultimi anni. Lo sviluppo della biologia molecolare e dell’ingegneria genetica permette una comprensione estremamente dettagliata dei meccanismi biochimici di base. In molti casi sappiamo quali sono le molecole sulla membrana cellulare che ricevono un messaggio (costituito da un trasmettitore chimico) spedito da altre cellule, come questo messaggio venga trasmesso al nucleo cellulare mediante l’attivazione di una serie di reazioni chimiche. Spesso sappiamo identificare i geni responsabili di un determinato carattere o che controllano la crescita di un organismo o lo sviluppo degli arti. Recentemente è stato lanciato il progetto genoma umano che consiste nel determinare la sequenza del DNA umano; si tratta di un progetto colossale del costo di qualche migliaio di miliardi di lire su un arco di dieci anni.

Le difficoltà nell’utilizzare a pieno questi risultati sono dovute alla differenza enorme che esiste fra la conoscenza delle reazioni biochimiche di base e la comprensione del comportamento globale di un essere vivente. Consideriamo uno degli esseri viventi più semplici: l’Escherichia Coli, un piccolo batterio di lunghezza di poco superiore ad un millesimo di millimetro, presente in grandi quantità negli intestini umani. L’Escherichia Coli contiene circa tremila tipi di proteine diverse, le quali interagiscono crucialmente fra di loro: mentre alcune proteine svolgono ruoli essenziali per il metabolismo della cellula, altre proteine regolano la produzione delle prime proteine, o svolgendo un’attività inibitrice sulla loro sintesi (soppressori) o promuovendone la loro sintesi (operoni). La sintesi delle proteine del tipo operone o soppressore è a sua volta controllata da altre proteine. È quasi certo che nei prossimi anni sarà disponibile la lista completa delle proteine dell’Escherichia Coli. Forse è anche possibile che con uno sforzo colossale sia possibile identificare le funzioni di ciascuna di queste proteine e i meccanismi che controllano la sintesi di ciascuna di esse. Se ci spingiamo avanti di qualche anno (o di qualche decennio) possiamo concepire di avere un gigantesco programma di calcolo che simuli con successo il comportamento di una vera cellula di Escherichia Coli, tenendo conto della quantità totale e della distribuzione spaziale di ciascuna specie chimica.

Tuttavia non è evidente che questo tipo di conoscenza sia sufficiente per capire veramente come funziona un essere vivente. Potremmo capire con grande pazienza i vari cicli di retroazione, ma non sembra possibile afferrare per questa strada i motivi profondi per cui il sistema si comporta globalmente come un essere vivente. In altri termini, anche se riusciamo a modellizzare un sistema vivente unicellulare mediante un sistema di equazioni differenziali in N variabili (il valore di N rilevante per una singola cellula non è evidente; esso sembra essere compreso tra 104, il numero di specie chimiche differenti e 1012, il numero di atomi), abbiamo il problema di dedurre le caratteristiche globali del comportamento del sistema con tecniche più sofisticate dalle simulazioni numeriche pure e semplici. Siamo di fronte allo stesso problema della meccanica statistica, dove la conoscenza delle leggi del moto non implica direttamente la comprensione dei comportamenti collettivi. Si può quindi pensare che una volta che le tecniche della biologia molecolare siano arrivate ad un livello di conoscenza sufficientemente dettagliato dei fenomeni molecolari, la comprensione del comportamento collettivo (e quindi dell’emergere della vita) debba essere ottenuto mediante tecniche simili a quelle della meccanica statistica.

La stessa problematica si ripresenta ad un livello più elevato nello studio del cervello dei vertebrati: forse potremo sapere in un prossimo futuro quasi tutti i dettagli funzionali del comportamento dei singoli neuroni, ma questa informazione da sola non ci permetterà di capire come mai qualche miliardo di questi neuroni, collegandosi fra di loro in maniera più o meno disordinata formino un cervello in grado pensare.

Un simile discorso potrebbe essere fatto per un grandissimo numero di sistemi biologici, per esempio nello studio della dinamica della sintesi delle proteine nella cellula (Kauffman 1969), nell’ontogenesi, nell’evoluzione naturale (Kauffman 1992, Epstein e Ruelle 1989), nell’equilibrio ormonale dei mammiferi, ecc. Tutti questi sistemi hanno la caratteristica di essere composti da un gran numero di elementi di tipo diverso che interagiscono fra di loro secondo leggi più o meno complicate: basta pensare a tutti gli effetti che un’ormone può avere sulla produzione di altri ormoni; inoltre in questi sistemi ci sono un grande numero di circuiti di controreazione, che stabilizzano il comportamento collettivo (la produzione di un dato ormone non può crescere a dismisura, in quanto è bloccata da meccanismi omeostatici). In questi casi, il punto di vista riduzionista tradizionale sembrerebbe non portare da nessuna parte: per esempio il numero di ormoni è così elevato che non è possibile determinare fino in fondo le interazioni di ciascun ormone su tutti gli altri e non è quindi possibile fare un modello preciso del sistema. Un punto di vista globale, in cui si trascuri la natura delle interazioni fra i costituenti, sembra essere anch’esso inutile: il sistema ormonale si comporta in maniera differente da una cellula (la seconda si divide in due, il primo no) e le differenze nella natura dei costituenti sono cruciali per determinare la differenza di comportamento globale.

In altri termini il problema che la biologia deve affrontare è come passare dalla conoscenza del comportamento dei costituenti di base (a secondo dei casi proteine, neuroni…) alla deduzione del comportamento globale del sistema. Si tratta in fondo dello stesso tipo di problema affrontato dalla meccanica statistica. In questi ultimi anni si assiste quindi al tentativo di adattare a sistemi biologici le stesse tecniche che erano state sviluppate per lo studio di sistemi fisici composte da un gran numero di componenti di natura diversa con leggi scelte in maniera casuale e di usare quindi le teorie sul comportamento complesso dei sistemi disordinati per studiare la complessità in biologia (Anderson 1983 Kauffman e Levin 1987).

8 Il caso e la necessità

Normalmente la proposta di considerare le leggi regolano l’interazione tra le varie componenti rende il biologo estremamente nervoso: la sua prima reazione è di considerare tutto il programma fin qui esposto una grande sciocchezza proposta da persone che non hanno un’idea precisa di che cosa sia la biologia. L’obiezione principale nasce dal fatto che i sistemi biologici attuali sono il frutto di una selezione naturale durata miliardi di anni e quindi i componenti di un essere vivente sono stati accuratamente selezionati affinché esso funzioni. Non è affatto chiaro se i metodi probabilistici della meccanica statistica (nel senso che le leggi del moto sono scelte casualmente) si possano applicare con successo agli esseri viventi, in quanto componenti selezionati in base ad uno scopo non possono essere considerati scelti a caso.

L’obiezione è meno forte di quello che può sembra a prima vista in quanto dire che qualcosa è scelto casualmente non vuol dire che sia scelto in maniera completamente casuale, ma in base a delle leggi in cui c’è sia una parte deterministica ed una parte casuale. Il vero problema consiste nel capire se la presenza parte casuale nella struttura di un essere vivente sia determinante per il suo buon comportamento.

Molto dipende da quale sia la struttura profonda di un essere vivente e su questo punto c’è un forte scontro fra tesi diverse. Spesso la cellula viene immaginata come un grande calcolatore: il DNA contiene il programma (software) e le proteine sono l’equivalente dei circuiti elettronici (hardware). Se questa metafora non fosse fuorviante, l’uso della meccanica statistica non avrebbe senso in biologia, come non ha senso usarla per lo studio di vero calcolatore. Infatti un calcolatore è stato costruito secondo un progetto e i collegamenti non sono stati fatti a caso, ma secondo uno schema ben presente nella testa degli ingegneri elettronici responsabili della progettazione. Un sistema vivente non è fatto in maniera completamente casuale, ma non è nemmeno stato progettato a tavolino; gli esseri viventi si sono evoluti mediante un processo di mutazione casuale e di successiva selezione.

L’esistenza di questi due aspetti è cruciale nello studio della dinamica delle proteine. Da un lato è evidente che le proteine hanno uno scopo ben definito e sembrano essere progettate per raggiungerlo. Dall’altro le proteine sono state inizialmente generate in maniera casuale ed è possibile che alcune delle proprietà fisiche delle proteine (specialmente quelle che non sono state controselezionate) riflettano ancora adesso le proprietà di una catena polipeptidica con elementi scelti a caso lungo la catena (Iben et al. 1989, Shaknovich e Gutin 1989).

Questo connubio di determinismo e di casualità lo ritroviamo se studiamo le sviluppo del singolo individuo. Per esempio i cervelli di due fratelli gemelli sembrano assolutamente identici se non sono osservati al microscopio; al contrario le posizioni ed i collegamenti dei singoli neuroni sono completamente differenti nei due casi. Infatti i singoli neuroni vengono creati in una parte della scatola cranica, migrano successivamente alla loro destinazione finale e emettono delle fibre nervose che tendono ad attaccarsi al primo bersaglio raggiunto. In assenza di segnali specifici sulle singole cellule un tale processo è necessariamente instabile e quindi una minima perturbazione porta il sistema a dei risultati completamente differenti. La metafora del calcolatore sembra essere insufficiente in quanto la descrizione di tutto il dettaglio fine (la disposizione e la connessione dei singoli componenti) non è contenuta nel progetto iniziale. D’altronde il numero di bit di informazione necessari per codificare i collegamenti di un cervello di mammifero è dell’ordine di 1014, ovvero molto superiore ai 109 bit di informazione contenuti nel DNA.

La disposizione dei neuroni e dei loro collegamenti nel cervello è un ottimo esempio di sistema disordinato, in cui esiste sia una componente deterministica, geneticamente controllata (tutto ciò che è uguale nel cervello dei due gemelli, ovvero la forma esterna, il peso, forse gli equilibri ormonali…) ed una componente casuale che varia da gemello a gemello. Il nostro atteggiamento sulla metodologia da seguire per arrivare una comprensione del comportamento del cervello cambia completamente a seconda che consideriamo la parte variabile (e quindi casuale) come un accidente inessenziale non funzionale o se al contrario pensiamo proprio che alcune caratteristiche proprie delle parte variabile siano cruciali per un buon funzionamento.

La necessità di usare le tecniche della meccanica statistica dei sistemi disordinati nascono anche dal fatto che i sistemi biologi sono in forte interazione col mondo esterno e questa interazione spesso ha sia una componente deterministica che una casuale. Per esempio le facce delle varie persone che abbiamo incontrato e di cui ci ricordiamo, hanno un componente costante (in quanto facce) ed una componente variabile (e quindi casuale) che costituisce la caratteristica di ciascun individuo. Non a caso forse i maggior successi in biologia dell’uso delle tecniche statistiche dei sistemi disordinati nasce nello studio delle reti neuronali e nella loro capacità di funzionare come memorie, ovvero di memorizzare e successivamente di riconoscere alcuni tipi di input (Hopfield 1982, Carnevali e Patarnello 1987, Denker et al. 1987, Amit 1989, Shaknovich e Gutin 1989, Seung 1991, Parisi 1992a). Infatti la casualità degli eventi da memorizzare si riflette in un accrescimento casuale delle sinapsi fra i vari neuroni e quindi ad una struttura sinaptica disordinata. In questo campo sono stati costruiti vari modelli di memorie associative, la cui dinamica è ben compresa dal punto di vista teorico e si è arrivati ad un livello di analisi tale da poter incominciare a cercare di paragonare le predizioni della teoria (che si è fatta via via sempre più realistica) con i dati sperimentali provenienti dalle registrazioni delle attività dei singoli neuroni.


9 Conclusioni

Il tentativo d’incontro fra fisica e biologia che abbiamo descritto comporta un cambiamento di ottica sia per il fisico che per il biologo. Per sua formazione il fisico teorico tende più a curarsi di principi generali (per esempio cerca di capire come un sistema che rassomiglia solo molto vagamente ad un’Escherichia Coli, si possa considerare vivente) mentre il biologo rimane attaccato all’esistente (vuole capire la vera Escherichia Coli, non un sistema ipotetico non realizzato e non realizzabile in natura).

La fisica ha una fortissima tradizione semplificatrice e tende a concentrarsi su alcuni aspetti trascurandone altri, anch’essi essenziali. Infatti la fisica moderna nasce con Galileo che fonda la meccanica trascurando l’attrito, nonostante che l’attrito sia cruciale nell’esperienza di tutti i giorni (provate ad immaginarvi come sarebbe un mondo privo di attrito!). L’oggetto non soggetto a forze che si muove di moto rettilineo uniforme (come nella prima legge di Newton) è una pura astrazione e (escludendo le palle da biliardo) non si è mai visto sulla faccia della terra niente che si comporti in un modo simile.

La fisica nasce con un passo indietro, con la rinuncia a comprendere globalmente il reale e con la proposta di studiare solamente un piccolo angolo della natura ,all’inizio veramente minuscolo. I fisici erano ben consapevoli che loro stavano studiando un mondo idealizzato, semplificato; Nicolò Tartaglia all’inizio di un suo trattato scrive (traduco in linguaggio moderno):

“Qui studieremo il moto di quelli oggetti soggetti alla forza di gravità trascurando l’attrito; e se le vere palle di cannone non seguono queste leggi, loro danno: vorrà dire che non parleremo di esse”.

Questo passo indietro, questa rottura con la tradizione di cercare di comprendere il reale nella sua interezza, ha permesso alla fisica di conquistare un terreno sicuro, un base stabile sulla quale poi effettuare tutta la costruzioni successive.

Lo stesso tipo di passo indietro viene effettuato quando vengono introdotte le tecniche della meccanica statistica nello studio di reti neuronali (Hopfield 1982). Infatti le tecniche fisico-matematiche allora disponibile permettevano di studiare solamente sistemi in cui l’interazione fosse simmetrica, ovvero l’influenza del neurone A sul neurone B era uguale a quella del neurone B sul neurone A. In questo caso, come abbiamo visto, il sistema si comporta molto semplicemente e non sono possibili né oscillazioni, né comportamenti caotici. Ovviamente quest’ipotesi di simmetria è completamente falsa dal punto di vista fisiologico. Tuttavia la sua introduzione ha permesso di portare il problema in una forma che poteva essere studiata in dettaglio; solo successivamente, utilizzando i progressi fatti in questo studio, è stato possibile rimuovere l’ipotesi aggiuntiva di simmetria e costruire dei modelli di rete neuronali relativamente realistici.

Questa tendenza del fisico a semplificare si scontra con la tradizione biologica di studiare il vivente così come è, come viene osservato in laboratorio, non come pensiamo che potrebbe essere o dovrebbe essere. In mancanza di dati certi di esobiologia abbiamo solo questa terra a disposizione e quindi quello che potrebbe essere uno degli obiettivi di un fisico, identificare i caratteri costanti in tutte le possibili forme viventi, risulta vuoto agli occhi di un biologo che conosce solo i pochi regni esistenti sulla terra. La fisica è una scienza assiomatica, (con assiomi selezionati dagli esperimenti), in cui tutte le leggi sono deducibili, sia pur faticosamente, da pochi principi primi, mentre la biologia è una scienza storica, in cui si studiano i prodotti della storia su questo pianeta.

Queste due concezioni diverse della scienza rendono la collaborazione della fisica e della biologia problematica, ma non impossibile. Questo nuovo modo di utilizzare la fisica in campo biologico, che abbiamo appena descritto, sta faticosamente incominciando a fare i primi passi e ci vorranno molti anni prima di capire se avrà successo. I progressi sono molto lenti, anche perché la maggior parte dei problemi, anche dopo essere stati formulati in termini matematicamente precisi, sono tecnicamente molto difficili e di non ancora risolti teoricamente.

Sono convinto che l’introduzione di tecniche probabilistiche nello studio della materia vivente sarà cruciale nel prossimo futuro soprattutto in quei sistemi in cui l’esistenza di una componente casuale è essenziale. La vera incognita è se questo fenomeno sarà localizzato solamente in qualche campo più o meno importante o se invece le tecniche fisiche matematiche basate sullo studio dei sistemi disordinati diventeranno il quadro concettuale di riferimento per la comprensione della dinamica degli esseri viventi specialmente a livello sistemico.

 

RIFERIMENTI BIBLIOGRAFICI:

D.J. Amit (1989), Modeling Brain Functions, Cambridge University Press, Cambridge.

Anderson P.W. (1983) Suggested models for prebiotic evolution: the use of chaos, Proc Natl. Acad. Sci. Usa 80, 3386-3390.

Balian R., Maynard R. e Toulouse G. editori. (1979) Ill condensed matter, (North Holland, Amsterdam).

Bangone G., Carlini F., Carrà S., Cini M., d’Eramo M., Parisi G. e Ruffo S. (1991), Gli ordini del Caos, Manifesto Libri.

Denker J., Schwartz D., Wittner B., Solla S., Horward S., Jackel L. e Hopfield J.J. (1987), Automatic learning, Complex Systems, 1, 877-888.

Carnevali P. e Patarnello S. (1987) Boolean Networks which Learn to Compute, Europhys. Lett.4, 1199-1204.

Epstein H. e Ruelle D. (1989), Test of a probabilistic model of evolutionary success, Phys. Rep. 184, 289-293.

Garey M.R. e Johnson D.S. (1969) Computers and intractability: A guide to the theory of NP-completeness (Freeman, New York).

Hopfield J.J. (1982) Neural networks and physical systems with emergent collective computational abilities, Proc. Natl. Acad. Sci. USA 79, 2554-2558.

Iben I.E.T., Braunstein D., Doster W., Frauenfelder H., Hong M.K., Johnson J.B., Luck.S., Ormos P., Schulte A., Steinbach P.J., Xie A.H. e Young R.D. (1989) Glassy Behaviour of a Protein, Phys. Rev. Lett. 62, 1916-1919.

Kauffman S. (1969) Metabolic Stability and Epigenesis in Random Constructed Genetic Nets, J. Theoret. Biol. 22, 437.

Kauffman S. e Levin S. (1987) Toward a General Theory of adaptation on Rugged Fiteness Landscape J. Theor. Biolog. 128, 11-22.

Kauffman S. (1992) Origins of Order: Self Organization and Selection in Evolution (Oxford Univ. Press, Oxford).

Livi R., Parisi G., Ruffo S. e Vulpiani A. (1986) Il computer da abaco veloce a strumento concettuale in Il Ponte luglio/ottobre.

Livi R., Ruffo S., Ciliberto S. e Buiatti M. editori. (1988), Chaos and Complexity (World Scientific Singapore).

  1. Mézard, G. Parisi e M.A. Virasoro (1987), Spin glass theory and beyond, World Scientific.

Rammal R., Toulouse G. e Virasoro M.A. (1986), Ultrametricity for physicsts, Rev. Mod. Phys. 58, 765-795.

Parisi G. (1990) Emergence of a tree structure in complex systems, in Perspectives on Biological Complexity, edito da O.T. Solbrig e G. Nicolis, IUBS monograph series N. 6, disponibile presso IUBS secretariat, 51 Boulevard de Montmorency, 75016 Paris, France.

Parisi G. (1992a) On the classification of learning machines, Network, in corso di stampa.

Parisi G. (1992a) Order, Disorder and Simulations, World Scientific, Singapore.

Peliti L. e Vulpiani A. Eds. (1988) Measures of Complexity, (Springer-Verlag Berlin).

H.S. Seung, H. Sompolinsky e N. Tishby, Statistical Mechanics of Learning from Examples, Phys. Rev. A. 33, 1978-1982 (1991).

Shaknovich E.I. e Gutin A.M. (1989) The Nonergodic (Spin Glass Like) Phase of Heteropolymer with Quenched Disordered Sequence of Links, Europhys. Lett. 8, 327-332.

Thom R. (1975) Structural Stability and Morphogenesis (Benjamin Reading, Ma).