Fisica e biologia

Facebook
Twitter
LinkedIn

In questo secolo ci sono stati molti scienziati, che dopo essersi formati come fisici, sono passati a lavorare in biologia: fra i casi più famosi ricordiamo, Francis Crick (lo scopritore con Jim Watson della doppia elica del DNA), Max Delbrück e Salvatore Luria (premi Nobel per i loro lavori sulle mutazioni). Tuttavia questi studiosi, una volta cambiato il campo di ricerca, lavoravano con lo stesso stile degli altri biologi e sfruttavano in maniera ridotta la loro formazione come fisici.

Attualmente la situazione sta incominciando a cambiare, ci sono degli studiosi che cercano di utilizzare le metodologie proprie della fisica per studiare alcuni dei problemi fondamentali della biologia. Questo fenomeno avviene per cause interne ad entrambi le discipline.

Un ciclo della storia della fisica si è esaurito e se ne sta aprendo uno nuovo con problematiche diverse da prima. Per un lunghissimo periodo uno dei problemi chiave consisteva nel trovare le leggi fondamentali della natura, ovvero nel cercare di determinare i costituenti elementari della materia e le forze che agivano fra di loro. Ancora venti anni fa la struttura dei componenti del nucleo (protoni e neutroni) e l’origine delle forze nucleari era ignota: c’erano accanite discussioni se i quark fossero o non fossero i costituenti del protone e non si aveva nessuna idea precisa di quale fosse la natura delle forze fra questi ipotetici quark. Attualmente sappiamo quasi tutto su i quark e le loro interazioni: l’unico grande mistero ancora da svelare è l’origine delle forze gravitazionali e il loro comportamento a distanze estremamente piccole. Si tratta di un problema difficile, forse troppo difficile, anche perché gli esperimenti cruciali riguardano particelle di energia miliardi di miliardi di volte superiore a quella prodotta attualmente in laboratorio e quindi impossibili da effettuare.

Anche se volte capita che qualche fisico si senta come l’Alessandro Magno della poesia, che piange di fronte al mare perché non ci sono più nuove terre da conquistare, questa non è la sensazione della maggioranza. Infatti la conoscenza delle leggi fra i costituenti elementari di un sistema non implica affatto la comprensione del comportamento globale. Per esempio non è affatto facile dedurre dalle forze che agiscono fra le molecole dell’acqua perché il ghiaccio sia più leggero dell’acqua (al contrario della maggior parte delle sostanze che diventa più densa quando viene raffreddata). La risposta a questo tipo di domande si può ottenere utilizzando la meccanica statistica. Questa disciplina, nata a cavallo fra la fine del secolo scorso e l’inizio di questo secolo con i lavori di Boltzmann e Gibbs, si occupa del problema di studiare il comportamento di sistemi composti da molte particelle, non determinando la traiettoria delle singole particelle ma utilizzando metodi probabilistici. Proprio in questi ultimi venti anni le capacità predittive della meccanica statistica sono enormemente aumentate, sia per il raffinamento delle analisi teoriche, sia per l’uso di un nuovo strumento di indagine, il calcolatore elettronico. In particolare modo sono stati ottenuti risultati estremamente interessanti nello studio di sistemi in cui le leggi stesse stesse sono scelte in maniera casuale.

La biologia si trova di fronte a dei problemi diversi, che nascono dallo spettacolare successo registrato in questi ultimi anni. Lo sviluppo della biologia molecolare e dell’ingegneria genetica permette una comprensione estremamente dettagliata dei meccanismi biochimici di base. In molti casi sappiamo quali sono le molecole sulla membrana cellulare che ricevono un messaggio (costituito da un trasmettitore chimico) spedito da altre cellule, come questo messaggio venga trasmesso al nucleo cellulare mediante l’attivazione di una serie di reazioni chimiche. Spesso sappiamo identificare i geni responsabili di un determinato carattere o che controllano la crescita di un organismo o lo sviluppo degli arti. Recentemente è stato lanciato il progetto genoma umano che consiste nel determinare la sequenza del DNA umano; si tratta di un progetto colossale del costo di qualche migliaio di miliardi di lire su un arco di dieci anni.

Le difficoltà nell’utilizzare a pieno questi risultati sono dovute alla differenza enorme che esiste fra la conoscenza delle reazioni biochimiche di base e la comprensione del comportamento globale di un essere vivente. Consideriamo uno degli esseri viventi più semplici: l’Escherichia Coli, un piccolo batterio di lunghezza di poco superiore ad un millesimo di millimetro, presente in grandi quantità negli intestini umani. L’Escherichia Coli contiene circa tremila tipi di proteine diverse, le quali interagiscono crucialmente fra di loro: mentre alcune proteine svolgono ruoli essenziali per il metabolismo della cellula, altre proteine regolano la produzione delle prime proteine, o svolgendo un’attività inibitrice sulla loro sintesi (soppressori) o promuovendone la loro sintesi (operoni). La sintesi delle proteine del tipo operone o soppressore è a sua volta controllata da altre proteine. E` quasi certo che nei prossimi anni sarà disponibile la lista completa delle proteine dell’Escherichia Coli, e forse anche delle loro interazioni. Tuttavia non è evidente che questo tipo di conoscenza sia sufficiente per capire veramente come funziona un essere vivente. Ad un livello più elevato potremo sapere in un prossimo futuro quasi tutti i dettagli funzionali del comportamento dei singoli neuroni, ma questa informazione da sola non ci permetterà di capire come mai qualche miliardo di questi neuroni, collegandosi fra di loro in maniera più o meno disordinata formino un cervello in grado pensare.

In altri termini il problema che la biologia deve affrontare è come passare dalla conoscenza del comportamento dei costituenti di base (a secondo dei casi proteine, neuroni…) alla deduzione del comportamento globale del sistema. Si tratta in fondo dello stesso tipo di problema affrontato dalla meccanica statistica. In questi ultimi anni si assiste quindi al tentativo di adattare a sistemi biologici le stesse tecniche che erano state sviluppate per lo studio di sistemi fisici composte da un gran numero di componenti di natura diversa con leggi scelte in maniera casuale.

Questo incontro fra fisica e biologia comporta un cambiamento di ottica sia per il fisico che per il biologo. Da un lato il fisico tende più a curarsi di principi generali (per esempio cerca di capire come un sistema che rassomiglia solo molto vagamente ad un’Escherichia Coli, si possa considerare vivente) mentre il biologo rimane attaccato all’esistente (vuole capire la vera Escherichia Coli, non un sistema ipotetico non realizzato e non realizzabile in natura). La tradizione semplificatrice della fisica, concentrarsi su alcuni aspetti trascurandone altri, anch’essi essenziali (Galileo fondò la meccanica trascurando l’attrito e provate ad immaginarvi come sarebbe un mondo privo di attrito!), si scontra con la tradizione biologica di studiare il vivente così come è, non come pensiamo che potrebbe essere.

Tuttavia la vera difficoltà nasce dal fatto che i sistemi biologici attuali sono il frutto di una selezione naturale durata miliardi di anni e quindi i componenti di un essere vivente sono stati accuratamente selezionati affinché esso funzioni. Non è affatto chiaro se i metodi probabilistici della meccanica statistica si possano applicare con successo agli esseri viventi. Molto dipende da quale sia la struttura profonda di un essere vivente e su questo punto c’è un forte scontro fra tesi diverse. Spesso la cellula viene immaginata come un grande calcolatore: il DNA contiene il programma e le proteine sono l’equivalente dei circuiti elettroni. Se questa metafora non fosse fuorviante, l’uso della meccanica statistica non avrebbe senso, come non ha senso usarla per lo studio di vero calcolatore. Infatti un calcolatore è stato costruito secondo un progetto e i collegamenti non sono stati fatti a caso, ma secondo uno schema ben presente nella testa degli ingegneri elettronici responsabili della progettazione. Un sistema vivente non è fatto in maniera completamente casuale, ma non è nemmeno stato progettato a tavolino; gli esseri viventi si sono evoluti mediante un processo di mutazione casuale e di successiva selezione.

Questo connubio di determinismo e di casualità lo ritroviamo se studiamo le sviluppo del singolo individuo. Per esempio i cervelli di due fratelli gemelli sembrano assolutamente identici se non sono osservati al microscopio; al contrario le posizioni ed i collegamenti dei singoli neuroni sono completamente differenti nei due casi. La metafora del calcolatore sembra essere insufficiente in quanto due sistemi originariamente identici producono risultati profondamente differenti.

Questo nuovo modo di utilizzare la fisica in campo biologico sta faticosamente incominciando a fare i primi passi e ci vorranno molti anni prima di capire se avrà successo. L’introduzione di tecniche probabilistiche nello studio della materia vivente è cruciale, se la metafora del calcolatore non è una buona descrizione e l’esistenza di una componente casuale è essenziale. Il dibattito su questo punto è appena cominciato.