La complessità

Facebook
Twitter
LinkedIn

1 – La fisica al giorno d’oggi:

Un ciclo della storia della fisica si è esaurito e se ne sta aprendo uno nuovo con problematiche diverse da prima. Per un lunghissimo periodo uno dei problemi chiave consisteva nel trovare le leggi fondamentali della natura, ovvero nel cercare di determinare i costituenti elementari della materia e le forze che agivano fra di loro. Ancora venti anni fa la struttura dei componenti del nucleo (protoni e neutroni) e l’origine delle forze nucleari era ignota. Adesso sappiamo quasi tutto su i quark e le loro interazioni: le leggi della fisica, dai nuclei atomici alle galassie, sembrano essere del tutto assodate ed è opinione corrente che il futuro non dovrebbe riservarci sorprese (almeno la stragrande maggioranza degli scienziati non se le aspetta); al contrario alle scale piccolissime (molto più piccole di un nucleo atomico) o alle grandissime scale (l’universo intero) ci sono molte cose che non comprendiamo e sotto certi rispetti brancoliamo nella più totale ignoranza. Tuttavia per le scale che interessano le normali attività umane, nell’intervallo che va dalla fisica alle evoluzioni stellari abbiamo una formulazione completa e soddisfacente delle leggi.

Anche se volte capita che qualche fisico si senta come l’Alessandro Magno della poesia, che piange di fronte al mare perché non ci sono più nuove terre da conquistare, questa non è la sensazione della maggioranza. Infatti la conoscenza delle leggi fra i costituenti elementari di un sistema non implica affatto la comprensione del comportamento globale. Per esempio non è affatto facile dedurre dalle forze che agiscono fra le molecole dell’acqua perché il ghiaccio sia più leggero dell’acqua che (al contrario della maggior parte delle sostanze) diventa più densa quando viene raffreddata. La risposta a questo tipo di domande si può ottenere utilizzando la meccanica statistica. Questa disciplina, nata a cavallo fra la fine del secolo scorso e l’inizio di questo secolo con i lavori di Boltzmann e Gibbs, si occupa del problema di studiare il comportamento di sistemi composti da molte particelle, non determinando la traiettoria delle singole particelle ma utilizzando metodi probabilistici.

Forse il risultato più interessante della meccanica statistica consiste nell’aver capito fino a fondo come sia possibile l’emergenza di comportamenti collettivi: mentre per pochi atomi di acqua non possiamo dire se essi formino un solido o un liquido e quale sia la temperatura di transizione, queste affermazioni assumono una natura ben precisa solo nel caso in cui consideriamo un gran numero di atomi (più precisamente nel caso in cui il numero di atomi tenda ad infinito). Le transizioni di fase nascono quindi come effetto del comportamento collettivo di molti componenti. Negli ultimi decenni la meccanica statistica si è sbizzarrita a studiare le transizioni di fase le più varie in cui nascono comportamenti collettivi diversi: basti pensare alla transizione (che avviene abbassando la temperatura) per la quale un metallo normale diventa improvvisamente superconduttore.

Proprio in questi ultimi venti anni le capacità predittive della meccanica statistica sono enormemente aumentate, sia per il raffinamento delle analisi teoriche, sia per l’uso di un nuovo strumento di indagine, il calcolatore elettronico. In particolare modo sono stati ottenuti risultati estremamente interessanti nello studio di sistemi in cui le leggi stesse stesse sono scelte in maniera casuale, ovvero i cosiddetti sistemi disordinati.

2 – Gli effetti dell’uso dei calcolatori:

Il calcolatore elettronico ha molto cambiato il panorama della fisica teorica. Una volta il passaggio dalle leggi alle conseguenze delle leggi era effettuato mediante argomentazioni che potevano sia ricorrere a degli strumenti matematici rigorosi, sia basarsi sull’analogia. I calcolatori attuali hanno enormemente ampliato le capacità di calcolo: imprese una volta considerate impossibili sono diventate del tutto banali. Se si voleva calcolare teoricamente la temperatura di liquefazione di un gas (per esempio l’argon) supponendo di conoscere già la forma delle forze fra i vari atomi, bisognava fare delle approssimazioni che non erano del tutto giustificate e, solo sotto queste ipotesi, mediante semplici calcoli si poteva ottenere una predizione per la temperatura di liquefazione, che non era in ottimo accordo con i dati sperimentali (un errore tipico potrebbe essere il 10% sulla temperatura assoluta). L’unica strada per migliorare l’accordo fra le previsioni e l’esperimento consisteva nel rimuovere a poco a poco le approssimazioni; questo schema teorico, noto come la teoria delle perturbazioni, conduce a delle espressioni molte complicate e a dei calcoli molto noiosi.

Uno dei motivi dell’interesse suscitato dalle simulazioni consiste nel fatto che si possono simulare anche sistemi non esistenti in natura, ma più semplici dal punto di vista teorico. Questo permette alle simulazioni di diventare il laboratorio privilegiato per la verifica di nuove teorie che non potrebbero essere verificate direttamente nel mondo reale, troppo complicato. Ovviamente lo scopo finale è di applicare queste idee in casi concreti, ma questo può avvenire solo dopo che la teoria si è sufficientemente irrobustita e ha preso confidenza con se stessa nel confronto con le simulazioni.


3 – I sistemi complessi:

Il calcolatore ha giocato un ruolo fondamentale nello sviluppo delle moderne teorie riguardanti i sistemi disordinati e come vedremo di sistemi complessi. Per i sistemi complessi il discorso è delicato in quanto si tratta di un campo più nuovo, con caratteristiche interdisciplinari: basta pensare alle connessioni con la biologia, l’informatica, la teoria dei sistemi e l’ecologia. Nello stesso tempo si tratta di una campo molto alla moda, nonostante che stessa parola complesso scivola tra le mani di chi cerca di darne una definizione precisa.

Lo scopo di una teoria dei sistemi complessi è di cercare delle leggi che regolano il comportamento globale di detti sistemi, leggi fenomenologiche che non sono facilmente deducibili dall’analisi delle leggi che controllano ciascuno dei singoli costituenti. Facciamo un esempio evidente: il comportamento dei singoli neuroni è probabilmente ben compreso, ma non ci è affatto chiaro perché 10 miliardi di neuroni, collegati da centomila miliardi di sinapsi, formino un cervello che pensa. Come abbiamo già visto, l’emergenza di comportamenti collettivi è un fenomeno ben studiato dalla fisica in altri contesti: la cooperazione di tanti atomi e molecole è responsabile delle transizioni di fase (tipo acqua-ghiaccio o acqua-vapore); tuttavia nel caso dei sistemi complessi il comportamento globale del sistema non è così semplice come quello dell’acqua, che ad una data temperatura può stare in uno, o al massimo due stati (se si trascura il punto tricritico dove vapore, liquido e gas coesistono).

Se assumiamo che un sistema complesso abbia necessariamente un comportamento complesso, la maggior parte dei sistemi studiati nel passato dai fisici avevano dei comportamenti semplici, come l’acqua, e non potevano essere considerati complessi. In questi ultimi anni i fisici, allo scopo di capire il comportamento di alcuni sistemi disordinati, come per esempio i vetri di spin, (leghe di oro e ferro che hanno un comportamento magnetico anomalo a basse temperature), hanno incominciato a ottenere alcuni risultati sulle proprietà di sistemi relativamente semplici, ma che hanno un comportamento complesso. Le tecniche messe durante queste ricerche sono di carattere più generale di quello che si potrebbe credere considerando la loro origine vagamente esoterica e sono correntemente applicate nello studio delle reti neurali.

Una comprensione profonda del comportamento dei sistemi complessi sarebbe estremamente importante. In questi ultimi anni l’attenzione si è concentrata su sistemi composti da un gran numero di elementi di tipo diverso che interagiscono fra di loro secondo leggi più o meno complicate in cui sono presenti un grande numero di circuiti di controreazione, che stabilizzano il comportamento collettivo In questi casi, un punto di vista riduzionista tradizionale sembrerebbe non portare da nessuna parte. Un punto di vista globale, in cui si trascuri la natura delle interazioni fra i costituenti, sembra essere anch’esso inutile in quanto la natura dei costituenti è cruciale per determinare il comportamento globale.

La teoria dei sistemi complessi, che si vorrebbe costruire, ha un punto di vista intermedio: si parte sempre dal comportamento dei singoli costituenti, come in un approccio riduzionista, ma con in più l’idea che i dettagli minuti delle proprietà dei componenti sono irrilevanti e che il comportamento collettivo non cambia se si cambiano di poco le leggi che regolano la condotta dei componenti. L’ideale sarebbe di classificare i tipi di comportamenti collettivi e di far vedere come al cambiare delle componenti un sistema rientri in questa classificazione. In altri termini i comportamenti collettivi dovrebbero essere strutturalmente stabili (nel senso di Thom) e quindi suscettibili di classificazione, ahimè ben più complicata di quella fatta in Stabilità strutturale e morfogenesi dallo stesso Thom.


4 – Un esempio di sistema complesso: i vetri di spin

In altri termini lo studio teorico non viene fatto su un singolo sistema, ma viene considerata simultaneamente una classe di sistemi, che differiscono gli uni dagli altri per una componente casuale. Il modo di procedere può essere compreso più facilmente se facciamo un esempio concreto. In una stanza ci sono tante persone che si conoscono e che hanno dei rapporti di simpatia o di antipatia fra di loro. Supponiamo di dividerle a caso in due gruppi e successivamente di domandare a ciascuna delle persone se vuole passare da un gruppo all’altro (la persona risponderà di sì seguendo le proprie inclinazioni); in caso di risposta positiva la persona cambia gruppo immediatamente. Dopo un primo giro, non tutti sono ancora soddisfatti: qualcuno che era cambiato di posto (o che non era cambiato al primo giro), vuole riconsiderare la propria situazione dopo i cambiamenti degli altri. Si effettua un secondo giro di spostamenti e si va avanti così finché non ci sono più richieste da parte di singoli. Successivamente, a uno stadio successivo, possiamo provare a spostare non solo i singoli, ma anche gruppi di persone, (può capitare infatti che un cambiamento di gruppo sia vantaggioso solo se fatto in compagnia), finché non si raggiunge uno stato di soddisfazione generale.

Ovviamente la configurazione finale dipenderà dai rapporti fra le varie persone e dalla configurazione iniziale e quindi non è direttamente calcolabile in assenza di queste informazioni. Possiamo tuttavia pensare di calcolare approssimativamente delle proprietà generali di questa dinamica (per esempio quanti giri bisogna fare prima che tutti siano contenti) facendo l’ipotesi che la distribuzione delle amicizie e inimicizie sia casuale. Più precisamente supponiamo di sapere quale sia la distribuzione di probabilità delle amicizie; per esempio la probabilità che due persone scelte casualmente siano amiche è p, dove p è un numero compreso fra 0 e 1. Bisogna a questo punto verificare se questa modellizzazione dei rapporti è corretta o se invece la situazione reale non sia più complicata (per esempio possiamo introdurre una grado nell’antipatia e supporre che le persone che nella vita reale abitano vicino hanno dei rapporti molto intensi, ma sono praticamente indifferenti a persone che abitano lontano). Una volta che si è ottenuta una modellizzazione accurata della probabilità di distribuzione delle simpatie, possiamo cercare di fare delle previsioni sul sistema, previsioni che saranno puramente di natura probabilistica e che diventeranno sempre più precise (ovvero con un errore relativo sempre più piccolo), più il sistema diventa grande ed il numero di componenti tende ad infinito.

In questo contesto la probabilità è utilizzata in maniera differente da quella a cui siamo abituati. Mentre classicamente si suppone che il sistema si evolve con una dinamica talmente complicata per cui si può assumere che le sue configurazioni siano del tutto casuali (si pensi ad una moneta che viene lanciata) nel caso che consideriamo le leggi stesse che governano la dinamica del sistema sono scelte a caso prima di incominciare a studiare la dinamica.

Il sistema che abbiamo precedentemente descritto corrisponde puntualmente (dal punto di vista matematico) ai vetri di spin dei fisici, nel senso che se sostituiamo le parole simpatico ed antipatico con ferromagnetico e antiferromagnetico ed identifichiamo i due gruppi con spin orientati in direzioni differenti otteniamo una descrizione precisa dei vetri di spin. Infatti a basse temperature un sistema fisico si evolve in maniera di minimizzare la temperatura e questa dinamica è molto simile al processo di ottimizzazione appena descritto, a patto di identificare l’energia fisica con l’insodisfazione generale. In quest’ultimo decennio i vetri di spin sono stati intensamente studiati e attualmente siamo in grado di rispondere a molte delle domande che abbiamo fatto.

La caratteristica forse più interessante di questi sistemi è costituita dall’esistenza di un gran numero di stati di equilibrio differenti (se spostiamo una sola persona alla volta) e dalla grande difficoltà a trovare la configurazione ottimale, rispetto ad un cambiamento di un numero arbitrariamente alto di persone. I vetri di spin sono infatti uno degli esempi più noti di quei problemi di ottimizzazione (detti NP completi), la cui soluzione ottimale può essere trovata solo mediante un numero di passi estremamente alto (che cresce esponenzialmente col numero di elementi del sistema).

La presenza di un gran numero di diversi stati di equilibrio può essere considerata forse come una delle caratteristiche più tipiche di sistemi complessi (almeno in una delle tante accezioni del termine): ciò che non si modifica col tempo non è complesso mentre un sistema che può assumere molte forme diverse è certamente complesso. La scoperta inattesa fatta in quest’ultimo decennio è che la complessità emerge naturalmente dal disordine delle leggi del moto. Per ottenere un sistema complesso non dobbiamo sforzarci a scegliere delle leggi molto particolari: basta sceglierle a caso, tuttavia con delle distribuzioni di probabilità ben determinate. Questo risultato ha aperto la nuova prospettiva nello studio dei sistemi complessi di cui parlavamo prima. Si tratta di un campo nuovo ad affascinante, in cui i risultati vengono ottenuti molto lentamente anche a causa della novità della problematica e della necessità di utilizzare strumenti matematici nuovi rispetto a quelli a cui siamo abituati: basti dire che la teorie delle repliche, mediante la quale sono stati ottenuti i risultati più interessanti, non ha al momento attuale nessuna giustificazione dal punto di vista matematico.


5 – La complessità in biologia:

La biologia si trova di fronte a dei problemi diversi, che nascono dallo spettacolare successo registrato in questi ultimi anni. Lo sviluppo della biologia molecolare e dell’ingegneria genetica permette una comprensione estremamente dettagliata dei meccanismi biochimici di base. Le difficoltà nell’utilizzare a pieno questi risultati sono dovute alla differenza enorme che esiste fra la conoscenza delle reazioni biochimiche di base e la comprensione del comportamento globale di un essere vivente. Consideriamo uno degli esseri viventi più semplici: l’Escherichia Coli, un piccolo batterio di lunghezza di poco superiore ad un millesimo di millimetro, presente in grandi quantità negli intestini umani. L’Escherichia Coli contiene circa tremila tipi di proteine diverse, le quali interagiscono crucialmente fra di loro: mentre alcune proteine svolgono ruoli essenziali per il metabolismo della cellula, altre proteine regolano la produzione delle prime proteine. È quasi certo che nei prossimi anni sarà disponibile la lista completa delle proteine dell’Escherichia Coli. Forse è anche possibile che con uno sforzo colossale sia possibile identificare le funzioni di ciascuna di queste proteine e i meccanismi che controllano la sintesi di ciascuna di esse. Se ci spingiamo avanti di qualche anno (o di qualche decennio) possiamo concepire di avere un gigantesco programma di calcolo che simuli con successo il comportamento di una vera cellula di Escherichia Coli, tenendo conto della quantità totale e della distribuzione spaziale di ciascuna specie chimica.

Tuttavia non è evidente che questo tipo di conoscenza sia sufficiente per capire veramente come funziona un essere vivente. Potremmo capire con grande pazienza i vari cicli di retroazione, ma non sembra possibile afferrare per questa strada i motivi profondi per cui il sistema si comporta globalmente come un essere vivente. In altri termini, anche se riusciamo a modellizzare un sistema vivente unicellulare mediante un sistema di equazioni differenziali in N variabili (il valore di N rilevante per una singola cellula non è evidente; esso sembra essere compreso tra 104, il numero di specie chimiche differenti e 1012, il numero di atomi), abbiamo il problema di dedurre le caratteristiche globali del comportamento del sistema con tecniche più sofisticate dalle simulazioni numeriche pure e semplici. Siamo di fronte allo stesso problema della meccanica statistica, dove la conoscenza delle leggi del moto non implica direttamente la comprensione dei comportamenti collettivi. Si può quindi pensare che una volta che le tecniche della biologia molecolare siano arrivate ad un livello di conoscenza sufficientemente dettagliato dei fenomeni molecolari, la comprensione del comportamento collettivo (e quindi dell’emergere della vita) debba essere ottenuto mediante tecniche simili a quelle della meccanica statistica.

In altri termini il problema che la biologia deve affrontare è come passare dalla conoscenza del comportamento dei costituenti di base (a secondo dei casi proteine, neuroni…) alla deduzione del comportamento globale del sistema. Si tratta in fondo dello stesso tipo di problema affrontato dalla meccanica statistica. In questi ultimi anni si assiste quindi al tentativo di adattare a sistemi biologici le stesse tecniche che erano state sviluppate per lo studio di sistemi fisici composte da un gran numero di componenti di natura diversa con leggi scelte in maniera casuale e di usare quindi le teorie sul comportamento complesso dei sistemi disordinati per studiare la complessità in biologia .


6 – Conclusioni:

Il tentativo d’incontro fra fisica e biologia che abbiamo descritto comporta un cambiamento di ottica sia per il fisico che per il biologo. Per sua formazione il fisico teorico tende più a curarsi di principi generali (per esempio cerca di capire come un sistema che rassomiglia solo molto vagamente ad un’Escherichia Coli, si possa considerare vivente) mentre il biologo rimane attaccato all’esistente (vuole capire la vera Escherichia Coli, non un sistema ipotetico non realizzato e non realizzabile in natura).

La fisica ha una fortissima tradizione semplificatrice e tende a concentrarsi su alcuni aspetti trascurandone altri, anch’essi essenziali. Infatti la fisica moderna nasce con Galileo che fonda la meccanica trascurando l’attrito, nonostante che l’attrito sia cruciale nell’esperienza di tutti i giorni (provate ad immaginarvi come sarebbe un mondo privo di attrito!). L’oggetto non soggetto a forze che si muove di moto rettilineo uniforme (come nella prima legge di Newton) è una pura astrazione e (escludendo le palle da biliardo) non si è mai visto sulla faccia della terra niente che si comporti in un modo simile.

La fisica nasce con un passo indietro, con la rinuncia a comprendere globalmente il reale e con la proposta di studiare solamente un piccolo angolo della natura, all’inizio veramente minuscolo. I fisici erano ben consapevoli che loro stavano studiando un mondo idealizzato, semplificato; Evangelista Torricelli all’inizio di un suo trattato scrive:

“Io fingo e suppongo che qualche corpo si muova all’insù secondo la noto proportione e orrizontalmente con moto equabile… se poi le palle di piombo, di ferro di pietra non osservano quella supposta direzione, suo danno: noi diremo che non parliamo di esse.”

Questo passo indietro, questa rottura con la tradizione di cercare di comprendere il reale nella sua interezza, ha permesso alla fisica di conquistare un terreno sicuro, un base stabile sulla quale poi effettuare tutta la costruzioni successive.

La tendenza del fisico a semplificare si scontra con la tradizione biologica di studiare il vivente così come è, come viene osservato in laboratorio, non come pensiamo che potrebbe essere o dovrebbe essere. La fisica è una scienza assiomatica, (con assiomi selezionati dagli esperimenti), in cui tutte le leggi sono deducibili, sia pur faticosamente, da pochi principi primi, mentre la biologia è una scienza storica, in cui si studiano i prodotti della storia su questo pianeta.

Queste due concezioni diverse della scienza rendono la collaborazione della fisica e della biologia problematica, ma non impossibile. Sono convinto che l’introduzione di tecniche probabilistiche nello studio della materia vivente sarà cruciale nel prossimo futuro. La vera incognita è se questo fenomeno sarà localizzato solamente in qualche campo più o meno importante o se invece le tecniche fisiche matematiche basate sullo studio dei sistemi disordinati diventeranno il quadro concettuale di riferimento per la comprensione della dinamica degli esseri viventi specialmente a livello sistemico.