1 – Introduzione:
Al giorno d’oggi le attività di ricerca scientifica in fisica si estendono a un enorme numero di settori e di problematiche differenti: basti pensare che il numero di articoli che espongono risultati originali, pubblicati su riviste specializzate, supera i centomila ogni anno.
Un possibile filo conduttore da seguire per ottenere un quadro d’insieme consiste nel considerare alcuni cambiamenti avvenuti nella fisica nel corso di questo secolo. Anche se una piena comprensione dei processi storici che portano alla nascita della fisica contemporanea non può essere ottenuta senza considerare aspetti sociologici, e più in generale extra-scientifici, (quali ad esempio l’emigrazione, avvenuta fra le due guerre, degli scienziati europei negli Stati Uniti e la contemporanea nascita della Big Science, i rapporti con le industrie, l’utilizzazione dei risultati ottenuti in campo industriale, tecnologico e militare, la politica dei finanziamenti, ecc.) nell’ambito di questa voce verranno considerati solo gli aspetti puramente scientifici.
Uno dei più grandi successi della fisica contemporanea è stata la formulazione soddisfacente delle leggi della fisica (e la loro verifica sperimentale) su una amplissima scala di distanze: dai quark alle galassie; tuttavia le leggi che controllano il comportamento della materia a distanze ancora più piccole non sono state ancora scoperte e non sappiamo nemmeno se siamo vicini alla meta. Per ottenere questi risultati è stata necessaria una revisione profonda dei concetti di base di realtà fisica, di spazio e di tempo, revisione che continua ancora e che forse ci porterà a comprendere quelle leggi che ancora ci sfuggono. La comprensione delle leggi fondamentali ha dato alla comunità dei fisici una base d’appoggio solida per cominciare a studiare fenomeni relativamente complessi che erano stati precedentemente negletti: sono nate nuove problematiche e parallelamente si è diffuso l’uso del calcolatore elettronico come strumento di ricerca teorico. Questo processo non sarebbe potuto avvenire senza uno sviluppo impressionante delle tecniche sperimentali, dovuto anche ai progressi tecnologici .
2 – La sintesi attuale e i lati oscuri:
Nel corso di questo secolo la fisica raggiunge finalmente una formulazione completa e soddisfacente delle leggi della fisica su scale che interessano le normali attività umane, nell’intervallo che va dalla fisica nucleare e subnucleare (10-16 cm.) fino al moto delle stelle e delle galassie. Infatti è opinione corrente che in questa regione il futuro non dovrebbe riservarci sorprese per quanto riguarda le leggi di base: l’immenso spettro di fenomeni che avviene su queste scale può essere spiegato in linea di principio partendo dalle teorie attualmente accettate.
Alle piccole scale (10-16 cm.) i fenomeni osservati si possono ben descrivere nell’ambito del quadro generale della meccanica quantistica relativistica. In particolare sembra ormai assodato che la materia nucleare sia composta da quark e gluoni che interagiscono secondo le leggi della cromodinamica quantistica. Queste particelle, che non possono esistere isolate, combinandosi, danno luogo al protone, al neutrone (10-13 cm. di raggio) e successivamente ai nuclei atomici; esse sono anche responsabili delle forze fra i nuclei. Le forze elettromagnetiche e deboli sono ben descritte dalla teoria di Glashow, Weinberg e Salam. Le predizioni della cromodinamica quantistica e della teoria di Glashow, Weinberg e Salam sono state confermate da moltissimi esperimenti effettuati utilizzando acceleratori di particelle ad altissima energia.
La meccanica quantistica non relativistica è essenziale per capire la formazione degli atomi e molecole. Per esempio gli spettri di emissione e di assorbimento della luce misurati sperimentalmente sono in ottimo accordo col calcolo teorico (esatto quando è possibile, altrimenti approssimato). Le tecniche di meccanica statistica permettono di studiare le proprietà di aggregati macroscopici di molti atomi e quindi la struttura dei gas, liquidi, solidi, le transizioni di fase, ecc… La necessità di spiegare nuovi fenomeni (per esempio l’effetto Hall quantistico) ha portato alla costruzione di teorie estremamente sofisticate. Andando su scala sempre più grande, le forze gravitazionali, nella forma predetta dalla relatività generale, sono capaci di spiegare con una precisione quasi incredibile il moto dei pianeti, stelle e galassie. Su scala più grande le difficoltà sono essenzialmente di natura osservativa (non conosciamo bene la struttura su larga scala dell’universo, per esempio i grandi vuoti nelle distribuzioni di galassie) ma non ci sono motivi fondati di supporre che le leggi della gravitazione falliscano a queste distanze.
La situazione cambia se andiamo su scale più piccole di 10-15 cm. o su scale molto più grandi delle galassie. Qui ci sono molte cose che non capiamo e su cui brancoliamo nel buio. Per quanto riguarda le piccole scale non sappiamo se la lista delle particelle a noi note sia essenzialmente completa, oppure se non esistano nuove particelle relativamente leggere (di massa un centinaio di volte superiore al protone) non ancora osservate. Infatti lo schema teorico attuale non sembra essere completamente soddisfacente se estrapolato a distanze molto più piccole di 10-15 cm. (per esempio a 10-19 cm.). Una modificazione della teoria molto ragionevole (supersimmetria) porterebbe a raddoppiare circa il numero di particelle esistenti rispetto a quelle note. L’esistenza delle particelle predette dalla supersimmetria sarebbe importantissimo e gli esperimenti, estremamente difficili, sono attualmente in corso. Il quadro teorico delle leggi su piccola scala è completamente diverso a seconda che l’ipotesi di supersimmetria sia o no corretta e solo gli esperimenti possono dirci quale delle due ipotesi è quella corretta.
Su scala ancora più piccola (10-33 cm.) bisogna affrontare le problematiche connesse con la quantizzazione della gravità. Qui, come vedremo in dettaglio nel paragrafo 4, la situazione è ancora più difficile in quanto non abbiamo la possibilità di fare esperimenti in questa regione. L’unica speranza è che le informazioni già acquisite sulla struttura delle particelle osservate sia sufficiente per determinare in maniera consistente la teoria su queste scale. Questa speranza ha anche origine dall’estrema difficoltà esistente nel costruire teorie coerenti della gravità quantistica. Alcuni fisici sperano che si possibile scrivere un’equazione (o un insieme di equazioni), a partire dalla quale la struttura delle particelle osservate (quarks, leptoni e bosoni intermedi delle interazioni fondamentali), le loro masse e le loro proprietà siano deducibili in linea di principio in accordo con l’esperimento: sia le leggi gravitazionali che le forze nucleari sarebbero descritte mediante una trattazione unica. Se questo obbiettivo verrà raggiunto (teorie di grande unificazione) si potrebbe in qualche modo pensare che la ricerca delle leggi fisiche fondamentali sia conclusa, non tanto perché le eventuali leggi proposte siano certamente corrette, ma perché una loro possibile violazione sarebbe probabilmente osservabile sono in regioni di energia non accessibile all’osservatore. Solo il futuro potrà dirci se saremo in grado di costruire questa formidabile sintesi teorica (che viene scherzosamente chiamata TOE, Theory Of Everything).
Se un simile progetto arrivasse a termine e si trovassero le leggi definitive che regolano il comportamento dei costituenti elementari della materia, non bisognerebbe temere un’eventuale disoccupazione dei fisici. Infatti, al contrario di quanto si potrebbe pensare, la conoscenza delle leggi di base non implica affatto una comprensione dei fenomeni. Le leggi della fisica sono spesso formulate come equazioni, la cui risoluzione permette in linea di principio di calcolare il moto dei componenti del sistema fisico considerato. Per esempio in astronomia le leggi della gravitazione universale di Newton (l’accelerazione è proporzionale alla forza e la forza gravitazionale fra due oggetti è proporzionale all’inverso del quadrato della distanza) determinano le traiettorie delle stelle e dei pianeti. Queste leggi sono note da più di tre secoli. In questo lasso di tempo generazioni e generazioni di astronomi si sono dedicati a cercare algoritmi tali da permettere di calcolare effettivamente le posizioni degli oggetti astronomici a partire da queste leggi.
Per capire bene la complessità di quest’impresa basta guardare una delle foto degli anelli di Saturno presa dal Voyager. Gli anelli non sono omogenei: si distinguono tre anelli, ciascuno dei quali si divide un una miriade di anelli più piccoli, separati da spazi vuoti. Attualmente sembra molto ragionevole pensare che questa complicatissima struttura sia determinata dagli effetti gravitazionali dei satelliti di Saturno sui minuscoli asteroidi (a volte di qualche decina di metri di diametro) che compongono gli anelli. Dedurre la forma di queste suddivisioni degli anelli dalle leggi di Newton è uno dei problemi aperti su cui gli astronomi stanno attualmente lavorando accanitamente facendo progressi molto lentamente.
Facciamo un altro esempio in campo differente della fisica. Attualmente al di la di ogni ragionevole dubbio è noto che su una scala microscopica gli elettroni interagiscono fra di loro respingendosi con una forza inversamente proporzionale al quadrato della distanza e che i loro movimenti sono regolati dalla meccanica quantistica. In questo indiscusso quadro concettuale non è affatto evidente perché e percome certi materiali diventino superconduttori ad una temperatura relativamente elevata, a soli 180 gradi sotto zero e non vicino allo zero assoluto (-273 gradi). Infatti la cosiddetta superconduttività ad alta temperatura è stata scoperta solo recentemente e nonostante l’enorme massa di dati accumulata in questi ultimi anni, siamo ben lontani dal capire le origini di questo fenomeno, che restano ancora misteriose. Anche se conosciamo le leggi che regolano il comportamento di ciascun elettrone, ci sfuggono le cause dell’emergere di questo comportamento collettivo degli elettroni che danno luogo alla superconduttività ad alta temperatura.
Al giorno d’oggi la vera difficoltà non sta nella formulazione delle leggi fondamentali in quanto esse sono in moltissimi casi già state determinate, ma nello scoprire le conseguenze di queste leggi e di formulare, o su base puramente sperimentale, o come conseguenza delle leggi basilari, delle leggi fenomenologiche del tipo “le molle si allungano proporzionalmente alla forza applicata”. Molto spesso un approccio deduttivo formale non porta a nulla; è necessario procedere basandosi sull’intuizione e per indizi (come il cacciatore), formulando ipotesi di lavoro ed effettuando semplificazioni successive; alla fine si ottiene un descrizione nitida, ma semplificata del fenomeno sulla quale si può costruire una teoria (la teoria della superconduttività, la teoria dei sistemi complessi, ecc.).
Questo miscuglio di intuizione e di deduzione permette di fare predizioni sul comportamento di sistemi fisici, predizioni spesso verificate. In questo senso si legge spesso che la teoria del tal dei tali è stata confermata sperimentalmente, ma la parola teoria si riferisce quasi sempre non alle leggi di base, ormai al di là di ogni dubbio, ma proprio a questo procedimento di deduzione di leggi fenomenologiche.
3 – Il concetto di realtà fisica:
I lavori di Planck sul quanto di azione (1901) e di Einstein sulla relatività ristretta (1905) e generale (1915) segnarono l’inizio di un’abbandono radicale dei concetti della fisica classica. La nascita della meccanica quantistica richiese una gestazione molto più faticosa, che durò per tutto il primo quarto del secolo. Durante questo processo i concetti classici di posizione, traiettoria, il significato stesso del verbo esistere vennero profondamente modificati.
Nel suo lavoro del 1901 Planck risolse la contraddizione tra teoria ed esperimenti sulla radiazione emessa da un corpo nero introducendo un ipotesi del tutto nuova. Planck suppose la luce fosse emessa in maniera discontinua, mediante processi elementari, durante ognuno dei quali venisse prodotta energia proporzionale alla frequenza [[nu]] di oscillazione (E = h [[nu]], h essendo una quantità molto piccola, detta costante di Planck).
Planck era fiducioso che la nuova legge sarebbe stata compresa studiando in dettaglio l’interazione fra luce e materia e non pensava assolutamente che fosse necessario introdurre nuovi concetti nella descrizione della natura.
Successivamente il successo nel predirre i dati sperimentali, ottenuto dai lavori di Einstein sull’effetto fotoelettrico (1906) e di Bohr sulla struttura dell’atomo, convinse i fisici che una nuova meccanica era necessaria, ma non si vedeva come fare per incominciare a posarne le fondamenta.
Nel 1924 de Broglie propose che anche la materia ordinaria avesse un’aspetto ondulatorio, e questa stupefacente predizione venne confermata sperimentalmente. Poco tempo dopo Schröedinger scrisse l’equazione che descrive le onde di de Broglie; Heisenberg contemporaneamente propose un formulazione matematica di una nuova meccanica (la meccanica quantistica) basata sulla teoria delle matrici. Meno di un’anno dopo Dirac dimostrò che le due differenti proposte, erano due formulazioni matematiche diverse della stessa teoria.
La costruzione della meccanica quantistica era stata effettuata procedendo a tentoni, usando come filo conduttore le discrepanze fra le predizione della meccanica classica e i dati sperimentali. Solo dopo la costruzione del nuovo edificio, venne il problema (ancora dibattuto) dell’interpretazione.
Le equazioni della meccanica quantistica, date le condizioni iniziali, permettono di prevedere correttamente i risultati delle osservazioni e di calcolare quale sia la probabilità di trovare l’elettrone in un dato punto dopo un certo tempo, ma non permettono di rispondere alla domanda dove sta l’elettrone (o un altro oggetto fisico) quando non viene osservato? Le difficoltà nascono dal fatto che lo stato del sistema è determinato dalle onde di de Broglie che indicano la probabilità (più precisamente l’ampiezza di probabilità) di trovare una particella in qualche punto dello spazio. Un’analisi dettagliata mostra che per determinare dove la particella è attualmente bisogna fare una misura perturbando il sistema in maniera significativa e non è immaginabile che il sistema stia in uno stato determinato quando non viene osservato.
Bohr ha riassunto brillantemente la situazione col suo principio di complementarità: l’elettrone possiede sia la natura dell’onda che della particella: le due nature non si possono manifestare contemporaneamente perché sono complementari l’una all’altra. Se insistiamo a misurare la traiettoria dell’elettrone, ponendo quindi l’accento sulla sua natura corpuscolare, i fenomeni ondulatori (per esempio l’interferenza) svaniscono; nello stesso modo se osserviamo l’interferenza non possiamo più parlare di traiettoria.
Sull’interpretazione della meccanica quantistica si sono sparsi fiumi d’inchiostro: le cose si complicano terribilmente se ci si domanda che cosa sia un osservatore (e quindi che cosa sia la coscienza di se stessi) o se si cerca di costruire una teoria in cui osservatore ed osservato siano trattati allo stesso livello. Possiamo cercare di riassumere una discussione che dura da più di sessanta anni affermando che non ci sono difficoltà se ci limitiamo a considerare la meccanica quantistica come una serie di regole usando le quali è possibile prevedere correttamente i fenomeni osservati; se tuttavia vogliamo interpretare queste regole come la manifestazione di qualcosa che esiste e che cambia col tempo e ci domandiamo che cosa sia questo qualcosa e quali siano le sue proprietà quando non viene osservato, una risposta universalmente accettata non esiste e le varie proposte non sono completamente soddisfacenti.
Attualmente la ricerca in questa direzione non è molto attiva, sia per mancanza di idee nuove, sia per il carattere epistemologico della questione, dovuto anche all’impossibilità di fare un esperimento per verificare un’interpretazione e quindi di decidere sperimentalmente quale sia l’interpretazione corretta. Anche se in futuro il quadro concettuale della meccanica quantistica dovrà essere abbandonato, è ragionevole pensare che il superamento della meccanica quantistica avverrà non ritornando alla pura e semplice meccanica classica, ma arrivando ad una formulazione ancora più lontana dall’intuizione classica.
4 – I concetti di spazio e di tempo:
La relatività ristretta segna nel 1905 un primo abbandono della concezione di un tempo assoluto, ugualmente definito per ciascun osservatore. Infatti nella relatività ristretta il tempo e lo spazio sono sullo stesso piano ed il fluire del tempo è diverso per due osservatori diversi (rallentamento del tempo con l’aumentare della velocità, paradosso dei gemelli, ecc.). Le predizioni della relatività ristretta sono facilmente verificabili sperimentalmente e ci sono zone oscure nella teoria.
La relatività generale del 1915 (che ebbe uno spettacolare verifica sperimentale nel 1921 con la misura della deviazione della luce delle stelle durante un’eclisse di sole) causa un rimescolamento molto più profondo nelle nostre concezioni dello spazio tempo e le conseguenze ultime di questa teoria non sono state ancora raggiunte.
La novità della teoria della relatività generale consiste nel supporre che lo spaziotempo non sia piatto e che la curvatura dello spaziotempo sia all’origine delle forze gravitazionali. A prima vista questo non sembra un grande cambiamento concettuale; i guai cominciano a venire quando si considerano gli effetti di campi gravitazionali intensi. Infatti la concentrazione di grandi quantità di materia in regioni ristrette dello spazio (dello stesso ordine di quelle che possono essere generate dal collasso di una stella) crea fenomeni completamente nuovi e apparentemente paradossali: i buchi neri.
La soluzione esatta delle equazioni gravitazionali (sotto ipotesi semplificatrici) porta alla conseguenza che una persona che cade dentro un buco nero raggiunge in un tempo soggettivamente finito l’istante che ad un’ipotetico osservatore esterno corrisponde ad un tempo infinito. Si rimane quindi intrappolati dentro un buco nero e non si può ritornare nell’universo attuale in quanto il tempo (infinito) dell’universo usuale è già terminato. Più in generale l’aver concepito lo spaziotempo come curvo, porta necessariamente alla possibilità che lo spazio abbia una struttura topologica complicata. Non si tratta semplicemente dell’eventualità che lo spazio sia finito, ma di qualcosa di ben più strano: come nei libri di fantascienza, è possibile che regioni apparentemente lontane dello spazio siano in realtà connesse tra di loro mediante una strada più corta (ovviamente questo può accadere solo in presenza di campi gravitazionali molto intensi); lo stesso potrebbe accadere per collegare regioni apparentemente lontane del tempo: si cade dentro un buco nero e dopo un attimo di tempo soggettivo, si esce da un buco bianco (l’inverso di un buco nero) dopo qualche miliardo d’anni di tempo usuale.
Il lato più strano consiste nel fatto che la teoria della gravità quantistica sembrerebbe predire (almeno secondo una scuola di pensiero) che lo spazio tempo sia pieno di queste strutture su scala microscopica (dette wormholes, ovvero buchi a forma di verme) che congiungono punti a distanza macroscopica. Altri sostengono che la struttura dello spazio nella gravità quantistica è ancora più complicata e su piccola scala lo spazio (come la superficie dell’acqua quando forma una schiuma) è lontano da essere approssimativamente piatto . In tutte queste teorie non è affatto chiaro come mai, se lo spazio tempo è talmente curvo e complicato su piccole scale, viene da noi percepito come piatto. Al momento attuale la gravitazione quantistica non è assolutamente compresa; molti dubitano che essa sia una teoria coerente e propongono delle modifiche alla teoria della gravitazione classica o alla meccanica quantistica a piccole distanze.
Le sorprese non finiscono qui: teorie attualmente molto di moda ipotizzano che lo spazio abbia nove (o forse venticinque) dimensioni e che l’universo si estenda per una distanza piccolissima (10-33 cm) nelle sei dimensioni aggiuntive mentre è estremamente grande delle direzioni usuali. Teorie di questo genere sembrerebbero essere attualmente l’unica possibilità consistente di scrivere le equazioni complete della gravitazione quantistica.
Una cambiamento di punto di vista ancora più radicale si facendo strada in questi ultimissimi anni: gli oggetti di base descritti dalla teoria sono enti che esistono al di fuori dello spazio e del tempo; l’intrecciarsi di questi oggetti provoca l’emergere dello spazio e del tempo come proprietà collettive; le dimensioni dello spazio tempo sono quantità derivate che devono essere calcolate nella teoria. Metaforicamente potremmo pensare che gli oggetti di base sono anellini: a seconda di come li connettiamo, possiamo avere oggetti con dimensioni diverse, per esempio una catena, una superficie o un solido compatto.
Attualmente gli sforzi di un gran numero di fisici sono concentrati nel cercare di capire se queste nuove proposte siano completamente coerenti e quali siano le corrispondenti previsioni sperimentali. Solo il futuro ci potrà dire fino a qual punto dovremo modificare i nostri concetti di spazio e di tempo.
5 – Le nuove problematiche:
L’ostacolo principale al passaggio dalle leggi di base alla comprensione di fenomeni è dovuto al fatto che solo per un numero estremamente piccolo di sistemi fisici siamo in grado di descrivere il comportamento in maniera dettagliata, quantitativa partendo dalle leggi fondamentali del moto. Infatti, se il sistema è composto da un grande numero di oggetti elementari che interagiscono fra di loro, diventa impossibile seguire, anche concettualmente, le traiettorie delle singole particelle: è necessario studiare il sistema da un punto di vista statistico, calcolando per esempio la velocità media delle particelle, ed è difficile far ciò senza effettuare approssimazioni, che in molti casi si possono rivelare disastrose.
A parte rare eccezioni, una comprensione completa dei fenomeni si può ottenere solo quando il comportamento del sistema è lineare, cioè quando la reazione di ogni componente del sistema è proporzionale alla perturbazione esterna, come per esempio nelle molle di buona qualità, dove l’allungamento è proporzionale alla forza.
Se si studia in dettaglio il comportamento di sistemi composti da componenti lineari che interagiscono fra di loro, ci si rende conto che la linearità permette di considerare l’interazione fra due componenti indipendentemente dal resto del sistema. Questa proprietà ci da la possibilità di ricondurre lo studio di un sistema con un gran numero di componenti allo studio estremamente più facile di un sistema con sole due componenti.
Lo stesso oggetto fisico, a secondo dei casi, può essere più o meno bene approssimato da un sistema lineare. Consideriamo per esempio le onde del mare e distinguiamo due casi: piccole e grandi onde. Quando due piccole onde si incontrano, esse formano per un istante un’onda alta esattamente la somma delle due altezze e poi si separano, continuando imperterrite per la loro strada, con la stessa altezza di prima, come se non si fossero mai incontrate: in questo caso un’equazione lineare per l’altezza delle onde descrive molto bene la situazione. Al contrario, quando le onde sono alte (per esempio dei cavalloni marini) e si scontrano, durante la collisione avvengono fenomeni violenti, l’acqua schizza da tutte le parti e le onde si possono frangere; in ogni caso esse perdono parte della loro energia ed escono dalla collisione meno alte di prima. In questo caso il moto di un’onda dipende crucialmente dalla presenza di un’altra ed il sistema è fortemente non-lineare.
Un tecnica usatissima nello studio dei sistemi non-lineari consiste nel supporre che la non-linearità sia piccola. Si studia preliminarmente il comportamento del sistema supponendo che esso sia lineare; successivamente si calcola come gli effetti non-lineari (trascurati fino a questo punto) perturbino l’evoluzione del sistema. Questo metodo, chiamato teoria delle perturbazioni, è perfetto se gli effetti non-lineari sono piccoli e funziona generalmente bene se la non-linearità non cambia il comportamento qualitativo del sistema; se al contrario la non-linearità induce fenomeni nuovi, come il frangersi delle onde, questi non verranno certamente descritti dalla teoria delle perturbazioni.
In quest’ultimo caso lo studio del sistema diventa molto più difficile e anche molto più interessante; molto spesso si procede derivando (o ipotizzando) delle equazioni che descrivano il comportamento dei nuovi fenomeni. Per esempio nel caso delle onde marine che si rompono possiamo provare a scrivere un’equazione per l’acqua e un’equazione direttamente per la spuma, senza cimentarsi nel compito praticamente impossibile di descrivere la spuma dando le coordinate delle singole goccioline d’acqua che la compongono. Anche se le equazioni che descrivono i nuovi fenomeni sono approssimate e possono contenere dei parametri di difficile stima teorica (che spesso vengono presi dall’esperimento) esse sono uno strumento indispensabile.
Sfortunatamente nella gran parte dei casi le nuove equazioni sono anch’esse non-lineari e non sono facili da trattare: si ritorna al problema di partenza (studio di un sistema non-lineare) ad un livello più alto di astrazione. Si può andare avanti trattando le nuove equazioni come lineari (in prima approssimazione) e introducendo una nuova teoria delle perturbazioni; se anche in questo caso l’approssimazione lineare è qualitativamente scorretta bisogna ancora una volta cercare d’isolare i fenomeni qualitativamente nuovi, scrivere nuove equazioni e ricominciare da capo.
A volte questo procedimento non funziona e tutto diventa molto più difficile; questo accade in presenza di effetti non-lineari irriducibili a quelli lineari (per esempio nel caso di un comportamento caotico). Molti di questi problemi fortemente non-lineari rimangono come puzzles irrisolti attorno ai quali si concentra l’attività dei fisici. Una teoria generale dei sistemi non-lineari non è attualmente disponibile e solo in alcuni casi fortunati esiste una trattazione teorica soddisfacente che non faccia uso della teoria delle perturbazioni rispetto ad un sistema lineare. Uno degli esempi più famosi è dato dalla teoria delle biforcazioni di Feigenbaum la quale predice le modalità del passaggio da un corportamento regolare ad un corportamento caotico. Delicati esperimenti (per esempio sul trasporto del calore in celle di Elio) hanno confermato sperimentalmente le predizioni della teoria.
6 – L’uso teorico del calcolatore:
Attualmente in fisica assistiamo all’apparire prepotente sulla scena di un nuovo strumento d’indagine: il calcolatore elettronico. Una volta il passaggio dalle leggi alle conseguenze delle leggi era effettuato mediante argomentazioni che potevano sia ricorrere a strumenti matematici rigorosi, sia basarsi (e questo accadeva spesso) su una logica più intuitiva e sull’analogia. Nell’immaginario scientifico il fisico teorico aveva bisogno solo di carta e matita per fare le sue previsioni, in opposizione al fisico sperimentale che aveva necessità di costose apparecchiature. I calcolatori attuali hanno enormemente ampliato le capacità di calcolo (esistono calcolatori capaci di fare circa un miliardo di operazioni al secondo su numeri di 7 cifre).
Le capacità di calcolo sono quindi aumentate di più di un miliardo di volte: imprese una volta considerate impossibili sono diventate del tutto banali. Se si voleva calcolare teoricamente la temperatura di liquefazione di un gas (per esempio l’argon) supponendo di conoscere già la forma delle forze fra i vari atomi, bisognava fare approssimazioni non del tutto giustificate e, solo sotto queste ipotesi, mediante semplici calcoli si poteva ottenere una predizione per la temperatura di liquefazione, che non era in ottimo accordo con i dati sperimentali. L’unica strada per migliorare l’accordo fra le previsioni e l’esperimento consisteva nel rimuovere a poco a poco le approssimazioni; questo schema teorico conduce a delle espressioni molte complicate e a dei calcoli molto noiosi che possono essere fatti a mano o, se necessario, dal calcolatore.
Il punto di vista completamente nuovo consiste nel non fare approssimazioni sul moto delle particelle, ma di calcolare esattamente mediante il calcolatore le loro traiettorie; per esempio possiamo simulare il comportamento di un certo numero di atomi di argon (diciamo 8000) dentro una scatola di dimensioni variabili e di osservare quello che succede: ovvero se l’argon si comporta come un liquido o come un gas. Il peso computazionale di una tale simulazione è enorme; bisogna calcolare le traiettorie di 8000 particelle e seguirle per un tempo sufficientemente elevato per poter trascurare la dipendenza dalla configurazione iniziale. Se pensiamo che i matematici del secolo scorso si sono scervellati per studiare le traiettorie di pochi pianeti, ci rendiamo conto che un simile approccio non era nemmeno immaginabile in assenza del calcolatore.
Le simulazioni hanno uno status intermedio fra teoria ed esperimento; non sono certo un esperimento tradizionale, nel senso che non si usano atomi di argon per ottenere la temperatura di liquefazione, tuttavia il compito del teorico rassomiglia molto a quello di uno fisico sperimentale tradizionale: prepara il suo apparato sperimentale (il calcolatore), decide le condizioni in cui l’esperimento avviene (condizioni iniziali, numero di particelle, forma delle forze, ecc.), lancia la simulazione e aspetta i risultati, che alla fine guarda e analizza. Non a caso le stime ottenute mediante simulazioni numeriche sono affette da un errore statistico e da un errore sistematico, come d’altronde i risultati di vere misure. La vecchia dicotomia, teoria-esperimento, è sostituita da una tripartizione del sapere: teoria pura, simulazione e esperimento. La simulazione molto spesso fa da trait d’union fra la teoria e l’esperimento: lo sperimentale confronta i suoi dati con i risultati delle simulazioni e il teorico cerca di essere in grado di predire i risultati delle simulazioni.
Uno dei motivi dell’interesse suscitato dalle simulazioni consiste nel fatto che si possono simulare anche sistemi non esistenti in natura, ma più semplici dal punto di vista teorico. Questo permette alle simulazioni di diventare il laboratorio privilegiato per la verifica di nuove teorie che non potrebbero essere verificate direttamente nel mondo reale, troppo complicato. Ovviamente lo scopo finale è di applicare queste idee in casi concreti, ma questo può avvenire solo dopo che la teoria si è sufficientemente irrobustita e ha preso confidenza con se stessa nel confronto con le simulazioni. Metaforicamente potremmo dire che le simulazioni giocano anche il ruolo di incubatrici per teorie nate settimine.
7 – L’evoluzione delle tecniche sperimentali:
Le tecniche sperimentali sono probabilmente il settore della fisica che più ha risentito dei cambiamenti dell’organizzazione della scienza e del mutato rapporto tra fisica e tecnologia. All’inizio del secolo gli esperimenti erano effettuati da gruppi molto piccoli di persone (al massimo due o tre) e una grande parte dell’apparecchiatura, anche molto sofisticata, era costruita dentro l’università. L’officina meccanica era estremamente attiva e sotto la guida di artigiani di valore era in grado di soddisfare gran parte delle necessità di gruppi di ricerca. In molte università i fisici imparavano anche ad usare il tornio e la fresa, strumenti il cui studio è ormai negletto.
Attualmente la situazione è cambiata sotto molti punti di vista. La nascita della meccanica quantistica ha dato agli scienziati la possibilità di comprendere il la struttura di molti materiali, alcuni estremamente rilevanti dal punto di vista applicativo, il cui comportamento era incomprensibile dal punto di vista classico (per esempio i semiconduttori). Nasce così un campo estremamente importante, la fisica applicata allo studio delle proprietà dei materiali e nel primo dopoguerra si ottiene un successo spettacolare: il transistor viene prima progettato e successivamente realizzato nei laboratori della Bell. Dato che il transistor è costruito in maniera molto peculiare (due materiali separati da uno strato molto sottile costituito da un terzo materiale), è estremamente difficile pensare che di poterlo scoprire per caso, in assenza di esperimento mirato. Anche il passaggio dai primi transistor (ben visibili ad occhio nudo) ai transistor attuali dei circuiti elettronici a grandissima integrazione (VLSI), di dimensione a volte inferiore al micron, ha richiesto un enorme sforzo teorico e sperimentale nel campo della scienza dei materiali e della fisica applicata. Le moderne macchine fotocopiatrici sono anch’esse possibile solo a causa dei progressi effettuati nella fisica delle superfici.
I progressi tecnologici del dopoguerra non sarebbero stati possibili senza il contributo della fisica contemporanea. Reciprocamente lo sviluppo della tecnologia permette un’enorme affinamento delle misure di quantità fisiche. Il progresso dell’elettronica ha rivoluzionato le tecniche sperimentali sia rendendo possibile la costruzione di strumenti ad altissima precisione a basso costo, sia permettendo la presa e l’analisi dei dati automatica controllata da un calcolatore. La storia dello sviluppo della tecnologia in questo è caratterizza da simili sinergismi: i progressi effettuati in primo campo permettono passi avanti cruciali in un secondo campo. Una vicenda simile si registra nel caso del Laser, la cui scoperta ha permesso la costruzione di strumenti di misura di grande sofisticazione.
Come conseguenza degli enormi progressi fatti dalla tecnologia non è più possibile costruirsi nel laboratorio buona parte degli strumenti necessari per effettuare le misure. Anche quando è possibile farlo, è molto più comodo comperarli da industrie specializzate; solamente la parte più delicata, non disponibile commercialmente, di un apparato sperimentale viene costruita nelle università.
Molto spesso per effettuare determinate esperienze sono necessarie attrezzature estremamente ingombranti e costose, che difficilmente possono essere gestite da un solo gruppo sperimentale. In questi casi vengono costruiti laboratori attrezzati in appositi centri in cui possono lavorare fisici di varie università: per esempio i reattori nucleari sono usati per produrre i fasci di neutroni necessari allo studio delle proprietà dei solidi, gli anelli di accumulazione di elettroni emettono una grande quantità di radiazione di sincrotone e sono di gran lunga la miglior sorgente di raggi ultravioletti e raggi X soffici, strumento indispensabile per lo studio delle proprietà delle superfici dei materiali.
Nella fisica delle alte energie questa tendenza è fortemente accentuata ed esistono alcuni centri internazionali a cui aderiscono fisici di vari paesi. Questa concentrazione delle attività è provocata dell’altissimo costo delle apparecchiature di base; un acceleratore di particelle necessario per fare progressi significativi in questo campo (per esempio un’anello di accumulazione di protoni di 10-20 TeV di energia) costa qualche migliaio di miliardi di lire. Lo stesso apparato sperimentale necessario a rivelare le particelle emesse durante le collisioni può facilmente costare alcuni centinaia di miliardi di lire: esso è frutto del lavoro di centinaia di fisici per vari anni, che lavorano occupandosi ciascuno di aspetti differenti (elettronica, meccanica, analisi dei dati, ecc…).
La costruzione di questi giganteschi acceleratori di particelle è stata assolutamente necessaria per effettuare esperimenti cruciali che hanno fornito i dati sperimentali sulla cui base sono stati proposti e successivamente confermati il modello attuali per le interazioni forti e elettrodeboli. L’esistenza di oggetti puntiformi dentro il protone (i quark, che sono fra gli elementi di base della cromodinamica) è stata suggerita ai fisici teorici da accurati esperimenti di urto elettrone-protone ad altissima energia e la scoperta dei bosoni intermedi delle interazioni deboli è stata cruciale per dimostrare definitivamente la correttezza del modello di Glashow, Weinberg e Salam per le interazioni elettrodeboli.