Nuovi paradigmi della conoscenza e della ricerca scientifica

Facebook
Twitter
LinkedIn

Nuovi paradigmi della conoscenza e della ricerca scientifica

Giorgio Parisi
Dipartimento di Fisica,
INFN, sezione di Tor Vergata,
Università di Roma II Tor Vergata
Prolungamento di Via del Fontanile di Carcaricola 00173 Roma

Spesso in questi ultimi due mesi mi sono domandato perché avessi mai scelto questo titolo per la mia relazione a Siena; probabilmente ero in uno stato mentale confusionale in quanto io trovo che la parola paradigma sia abusata (dopo Kuhn), e l’aggettivo nuovo mi ricorda irresistibilmente i nuovi filosofi e di conseguenza le vecchie frittate rovesciate. Mettiamo da parte questi dubbi sul titolo, e veniamo al dunque! In questa relazione vorrei parlare di come in questi ultimi anni stia cambiando la visione del mondo da parte degli scienziati.

Premetto che al giorno d’oggi è difficile avere una visione d’insieme della scienza; la quantità di carta stampata è enorme: per esempio ogni anno vengono pubblicati circa 100.000 articoli di fisica e 20.000 articoli di immunologia su riviste specializzate. Anche se cercassi di seguire tutte le novità in questi soli due campi, avrei di fronte un compito impossibile. Questa enorme produzione scientifica è dovuta al fatto che il numero degli scienziati vivi è superiore a quello dei morti: le persone che al momento attuale lavorano in istituzioni scientifiche sono più di quante complessivamente abbiano lavorato nel passato in tutta la storia dell’umanità. L’impossibilità di seguire l’enorme massa di risultati ottenuti porta ad una iperspecializzazione ed a una frammentazione del sapere, che sono molto dannose, ma anche difficili ad evitare. Oggi il mio tentativo sarà di partire dal campo che conosco meglio (la fisica teorica) e di sottolineare alcune tendenze della fisica (e probabilmente anche di qualche branca della biologia) con la speranza che questo tipo di considerazioni possano applicarsi in un contesto più generale. I contributi degli altri relatori e i commenti che riceverò dopo questo intervento, dai discussants in particolare, mi saranno molto utili per capire se sono sulla giusta traccia.

Per prima cosa cerchiamo di chiarire il quadro concettuale in cui si muove la ricerca in fisica. Attualmente le leggi della fisica, dai nuclei atomici alle galassie, sembrano essere del tutto assodate ed è opinione corrente che il futuro non dovrebbe riservarci sorprese (almeno la stragrande maggioranza degli scienziati non se le aspetta); al contrario alle scale piccolissime (molto più piccole di un nucleo atomico) o alle grandissime scale (l’universo intero) ci sono molte cose che non comprendiamo e sotto certi rispetti brancoliamo nella più totale ignoranza. In altri termini per le scale che interessano le normali attività umane, nell’intervallo che va dalla fisica alle evoluzioni stellari abbiamo una formulazione completa e soddisfacente delle leggi.

Tuttavia la conoscenza delle leggi di base non implica affatto una comprensione dei singoli fenomeni; in altri termini nessuno dubita che gli elettroni interagiscano fra di loro respingendosi con una forza inversamente proporzionale al quadrato della distanza e che i loro movimenti siano regolati dalla meccanica quantistica. In questo indiscusso quadro concettuale non è affatto evidente perché e percome certi materiali diventino superconduttori ad una temperatura relativamente elevata; infatti la cosiddetta superconduttività ad alta temperatura è stata scoperta solo recentemente e nonostante l’enorme massa di dati accumulata in questi ultimi anni, siamo ben lontani dal capire le origini di questo fenomeno, che restano ancora misteriose. La vera difficoltà non sta nella formulazione delle leggi fondamentali, ma nello scoprire le conseguenze di queste leggi e di formulare o su base puramente sperimentale, o come conseguenza delle leggi basilari, leggi fenomenologiche del tipo le molle si allungano proporzionalmente alla forza applicata. Questo processo è faticoso e non è lineare: la metis gioca un ruolo molto più forte della sofia. In altri termini, un approccio deduttivo formale (amato dai matematici) nella maggior parte dei casi non porta a nulla; è molto più proficuo procedere basandosi sull’intuizione e per indizi (come il cacciatore), formulando ipotesi di lavoro, la cui verifica viene rimandata, ed effettuando semplificazioni successive. Alla fine si ottiene un descrizione nitida del fenomeno: arrivati a questo stadio si possono utilizzare gli usuali strumenti logici deduttivi per costruire una teoria (la teoria della superconduttività, la teoria dei vetri di spin, ecc.).

Questo miscuglio di intuizione e di deduzione permette di fare delle predizioni sul comportamento di sistemi fisici, predizioni spesso verificate. In questo senso si legge spesso che la teoria del Tal dei Tali è stata confermata sperimentalmente, ma la parola teoria si riferisce quasi sempre non alle leggi di base, ormai al di là di ogni dubbio, ma proprio a questo procedimento utilizzato per dedurre le leggi fenomenologiche.

Questa situazione non è nuova, e sussiste perlomeno dal dopoguerra, con la differenza che mentre negli anni cinquanta non avevamo un’idea precisa di quello che succedeva dentro un protone, ora sappiamo, o almeno crediamo di sapere, che un protone è composto da tre quarks, che interagiscono coi i gluoni, per quanto riguarda le interazioni forti, e con i bosoni W e Z, per quanto riguarda le interazioni deboli. I cambiamenti più interessanti che avvengono in questi anni riguardano sia il tipo di leggi fenomenologiche che si cerca di ottenere, sia gli strumenti concettuali e concreti che si usano. Se la scienza, come dice Bucharin, è un’impresa pratica che ha come scopo il controllo (in senso lato) della natura, i modi del suo sviluppo e le tematiche affrontate dipenderanno necessariamente dai problemi che la società deve risolvere e dagli strumenti tecnici a disposizione.

Attualmente assistiamo nella fisica all’apparire prepotente sulla scena di un nuovo strumento d’indagine: il calcolatore elettronico. Una volta il passaggio dalle leggi alle conseguenze delle leggi era effettuato mediante argomentazioni che potevano sia ricorrere a degli strumenti matematici rigorosi, sia basarsi (e questo accadeva spesso) su una logica più intuitiva e sull’analogia. Nell’immaginario scientifico il fisico teorico aveva bisogno solo di carta e matita per fare le sue previsioni, in opposizione al fisico sperimentale che aveva necessità di costose apparecchiature. I calcolatori attuali hanno enormemente ampliato le capacità di calcolo (esistono calcolatori capaci di fare circa un miliardo di operazioni al secondo su numeri di 7 cifre). Le capacità di calcolo sono quindi aumentate di più di un miliardo di volte: imprese una volta considerate impossibili sono diventate del tutto banali. Se si voleva calcolare teoricamente la temperatura di liquefazione di un gas (per esempio l’argon) supponendo di conoscere già la forma delle forze fra i vari atomi, bisognava fare delle approssimazioni che non erano del tutto giustificate e, solo sotto queste ipotesi, mediante semplici calcoli si poteva ottenere una predizione per la temperatura di liquefazione, che non era in ottimo accordo con i dati sperimentali (un errore tipico potrebbe essere il 10% sulla temperatura assoluta). L’unica strada per migliorare l’accordo fra le previsioni e l’esperimento consisteva nel rimuovere a poco a poco le approssimazioni; questo schema teorico, noto come la teoria delle perturbazioni, conduce a delle espressioni molte complicate e a dei calcoli molto noiosi che possono essere fatti a mano o, se necessario, dal calcolatore.

Il punto di vista completamente nuovo consiste nel non fare approssimazioni sul moto delle particelle, ma di calcolare esattamente mediante il calcolatore le loro traiettorie; per esempio possiamo simulare il comportamento di un certo numero di atomi di argon (diciamo 8000) dentro una scatola di dimensioni variabili e di osservare quello che succede: ovvero se l’argon si comporta come un liquido o come un gas. Il peso computazionale di una tale simulazione è enorme; bisogna calcolare le traiettorie di 8000 particelle e seguirle per un tempo sufficientemente elevato per poter trascurare la dipendenza dalla configurazione iniziale. Se pensiamo che i matematici del secolo scorso si sono scervellati per studiare le traiettorie di pochi pianeti, ci rendiamo conto che un simile approccio non era nemmeno immaginabile in assenza del calcolatore.

Le simulazioni hanno uno status intermedio fra teoria ed esperimento; non sono certo un’esperimento tradizionale, nel senso che non si usano atomi di argon per ottenere la temperatura di liquefazione, tuttavia il compito del teorico rassomiglia molto a quello di uno fisico sperimentale tradizionale: prepara il suo apparato sperimentale (il calcolatore), decide le condizioni in cui l’esperimento avviene (condizioni iniziali, numero di particelle, forma delle forze, ecc.), lancia la simulazione e aspetta i risultati, che alla fine guarda e analizza. Non a caso le stime ottenute mediante simulazioni numeriche sono affette da un errore statistico e da un errore sistematico, come d’altronde i risultati di vere misure. La vecchia dicotomia, teorico-sperimentale, è sostituita da una tripartizione del sapere: teoria pura (carta e matita per intenderci), simulazione e esperimento. La simulazione molto spesso fa da trait d’union fra la teoria e l’esperimento: lo sperimentale confronta i suoi dati con i risultati delle simulazioni e il teorico cerca di essere in grado di predire i risultati delle simulazioni.

Uno dei motivi dell’interesse suscitato dalle simulazioni consiste nel fatto che si possono simulare anche sistemi non esistenti in natura, ma più semplici dal punto di vista teorico. Questo permette alle simulazioni di diventare il laboratorio privilegiato per la verifica di nuove teorie (testing ground) che non potrebbero essere verificate direttamente nel mondo reale, troppo complicato. Ovviamente lo scopo finale è di applicare queste idee in casi concreti, ma questo può avvenire solo dopo che la teoria si è sufficientemente irrobustita e ha preso confidenza con se stessa nel confronto con le simulazioni. Semplificando potremmo dire che le simulazioni giocano anche il ruolo di incubatrici per teorie nate settimine.

Qui il nostro discorso si incrocia con due termini molto alla moda: il caos e la complessità, in quanto in tutte e due questi campi il calcolatore ha giocato un ruolo fondamentale. Il problema del caos riguarda il compartimento apparentemente irregolare, quasi casuale, di sistemi con leggi del moto deterministiche: si tratta di capire come ciò possa avvenire e quali siano le leggi generali che regolano questo fenomeno solo apparentemente contraddittorio. Anche se in teoria il caos deterministico era noto teoricamente dagli inizi del secolo (teoremi di Poincaré), l’interesse dei fisici è stato risvegliato da simulazioni numeriche che facevano esplicitamente vedere il comportamento caotico in un sistema deterministico (a volte i fisici si comportano come San Tommaso). Lo studio del caos è stato effettuato negli ultimi quindici anni con un grande dispiego di forze ottenendo risultati molto interessanti sui i quali non posso qui soffermarmi (colgo l’occasione per segnalare un bellissimo libro sull’argomento, recentemente uscito in Italia). Tuttavia è importante sottolineare il cambiamento verificatosi nel modo di osservare i fenomeni. Mentre infatti l’ordine, la regolarità erano una volta al centro dell’attenzione, il disordine, la geometria frattale, l’imprevidibilità giocano un ruolo fondamentale nella comprensione del caos: i fisici hanno un nuovo paio d’occhiali per guardare il mondo; fenomeni (per esempio la forma e la dimensione dei frammenti di un vetro rotto), che precedentemente erano ignorati a causa della mancanza di un quadro concettuale nel quale essi dovevano essere inseriti, sono ora ampiamente studiati.

Per i sistemi complessi il discorso è molto più delicato in quanto si tratta di un campo più nuovo, con caratteristiche molto più interdisciplinari del caos: basta pensare alle connessioni con la biologia, l’informatica, la teoria dei sistemi e l’ecologia. La stessa parola complesso scivola tra le mani di chi cerca di darne una definizione precisa. A volte si sottolinea il significato complicato, composto da molti elementi (una centrale nucleare è un sistema complesso, in quanto composto da centomila pezzi differenti), altre volte si sottolinea il significato incomprensibile (l’atmosfera è un sistema complesso, in quanto non si possono fare previsioni a lunga scadenza). Molto spesso in un congresso sui sistemi complessi ciascuno degli oratori usa la parola complesso con un accentuazione differente. A parte i problemi di definizione, le vere difficoltà nascono quando, dopo aver dichiarato che un dato sistema è complesso, si vuole utilizzare questa affermazione per ottenere risultati positivi e non per lavarcisi le mani affermando il sistema è complesso, quindi nessuna predizione è possibile.

Lo scopo di una teoria dei sistemi complessi è di cercare delle leggi che regolano il comportamento globale di detti sistemi, leggi fenomenologiche che non sono facilmente deducibili dall’analisi delle leggi che controllano ciascuno dei singoli costituenti. Facciamo un esempio evidente: il comportamento dei singoli neuroni è probabilmente ben compreso, ma non ci è affatto chiaro perché 10 miliardi di neuroni, collegati da centomila miliardi di sinapsi, formino un cervello che pensa. L’emergenza di comportamenti collettivi è un fenomeno ben studiato dalla fisica in altri contesti: la cooperazione di tanti atomi e molecole è responsabile delle transizioni di fase (tipo acqua-ghiaccio o acqua-vapore); tuttavia nel caso dei sistemi complessi il comportamento globale del sistema non è così semplice come quello dell’acqua, che ad una data temperatura può stare in uno, o al massimo due stati (se si trascura il punto tricritico dove vapore, liquido e gas coesistono). Se assumiamo che un sistema complesso abbia necessariamente un comportamento complesso, la maggior parte dei sistemi studiati nel passato dai fisici avevano dei comportamenti semplici, come l’acqua e non potevano essere considerati complessi. In questi ultimi anni i fisici, allo scopo di capire il comportamento di alcuni sistemi disordinati, come per esempio i vetri di spin (per alcune leghe di oro e ferro che hanno un comportamento magnetico anomalo a basse temperature), hanno incominciato a ottenere alcuni risultati sulle proprietà di sistemi relativamente semplici, ma che hanno un comportamento complesso. Le tecniche messe durante queste ricerche sono di carattere più generale di quello che si potrebbe credere considerando la loro origine vagamente esoterica e sono correntemente applicate nello studio delle reti neurali.

Lo stesso problema è stato studiato effettuando simulazioni su calcolatore per alcuni sistemi complessi e i vantaggi dei due approcci si combinano sinergeticamente. Infatti i calcolatori permettono di effettuare simulazioni di sistemi complessi con complessità crescente, in maniera di poter estrarre leggi quantitative e qualitative da sistemi di complessità moderata, prima di cimentarsi con sistemi veramente complessi. Il miscuglio di risultati analitici ottenuti su sistemi più semplici e di simulazioni numeriche di sistemi di complessità intermedia sembra essere molto efficace e notevoli progressi sono stati ottenuti in questi ultimi anni.

Una comprensione profonda del comportamento dei sistemi complessi sarebbe estremamente importante in biologia, per esempio nello studio della dinamica della sintesi delle proteine nella cellula, nell’ontogenesi, nell’evoluzione naturale, nell’equilibrio ormonale dei mammiferi, ecc. Tutti questi sistemi hanno la caratteristica di essere composti da un gran numero di elementi di tipo diverso che interagiscono fra di loro secondo leggi più o meno complicate: basta pensare a tutti gli effetti che un’ormone può avere sulla produzione di altri ormoni; inoltre in questi sistemi ci sono un grande numero di circuiti di controreazione, che stabilizzano il comportamento collettivo (la produzione di un dato ormone non può crescere a dismisura, in quanto è bloccata da meccanismi omeostatici). In questi casi, il punto di vista riduzionista tradizionale sembrerebbe non portare da nessuna parte: il numero di ormoni è così elevato che non è possibile determinare fino in fondo le interazioni di ciascun ormone su tutti gli altri e non è quindi possibile fare un modello preciso del sistema. Un punto di vista globale, in cui si trascuri la natura delle interazioni fra i costituenti, sembra essere anch’esso inutile: il sistema ormonale si comporta in maniera differente da una cellula (la seconda si divide in due, il primo no) e le differenze nella natura dei costituenti sono cruciali per determinare la differenza di comportamento globale. La teoria dei sistemi complessi, che si vorrebbe costruire, ha un punto di vista intermedio: si parte sempre dal comportamento dei singoli costituenti, come in un approccio riduzionista, ma con in più l’idea che i dettagli minuti delle proprietà dei componenti sono irrilevanti e che il comportamento collettivo non cambia se si cambiano di poco le leggi che regolano la condotta dei componenti. L’ideale sarebbe di classificare i tipi di comportamenti collettivi e di far vedere come al cambiare delle componenti un sistema rientri in questa classificazione. In altri termini i comportamenti collettivi dovrebbero essere strutturalmente stabili (nel senso di Thom) e quindi suscettibili di classificazione, ahimè ben più complicata di quella fatta in Stabilità strutturale e morfogenesi.

Temo di essermi fatto trascinare dall’entusiasmo e non so più bene se sto descrivendo la teoria dei sistemi complessi come è, come sarà o come il mio sogno vorrebbe che fosse. Certo è però che da un lato il desiderio di comprendere sistemi complessi (per esempio i sistemi citati prima ai quali potremmo anche aggiungere l’economia, o la borsa valori) e dall’altro lo studio delle simulazioni con il calcolatore stanno creando in alcuni fisici un nuovo modo di osservare e di interpretare il mondo. Lo spettro dei fenomeni incasellabili nel quadro concettuale corrente (e quindi degni di essere studiati scientificamente) si è enormemente arricchito e probabilmente stiamo assistendo a un cambiamento paradigmatico (secondo Kuhn). Tuttavia per fare una simile affermazione bisognerebbe inquadrare questo cambiamento in una prospettiva storica, ma temo, nel tempo del mio intervento che sta quasi per scadere, di non essere andato al di là della cronaca.