Toccando una superficie levigata, non potremmo mai immaginare come questa, in realtà, sia discontinua a livello atomico: i nuclei dei vari atomi, di cui è fatta la superficie, sono infatti regolarmente disposti, ma in punti dello spazio lontanissimi tra loro rispetto alle dimensioni nucleari. Molte omogeneità delle cose che vediamo sono dovute alla scarsa capacità di risoluzione dei nostri sensi. C’è una quantità che comunque pensiamo omogenea e continua: lo spaziotempo intorno a noi, ovvero quel contenitore anonimo, nel quale oscillano le onde di radiazione e di materia di cui si animano i costituenti più elementari del mondo che ci circonda. Quando scriviamo le equazioni che governano le interazioni fondamentali, pensiamo sempre a uno spaziotempo che si può suddividere all’infinito, un continuo ininterrotto di punti. Se classicamente questa assunzione non comporta problemi, quando includiamo in queste equazioni gli effetti della meccanica quantistica, che ci dice che a piccolissime distanze le leggi non sono più deterministiche, ma fissano solo le probabilità relative di eventi tutti possibili, la pretesa di scrivere equazioni valide a distanze arbitrariamente piccole crolla. Si scopre l’esistenza di un fenomeno che rischia di rendere inutili le equazioni stesse: cioè che le onde, le quali oscillano con frequenze altissime e quindi cambiano su distanze piccolissime assieme alle loro lunghezze d’onda, rendono le correzioni quantistiche – alle predizioni della teoria classica – “infinite”, ovvero non trattabili matematicamente. In realtà, le teorie che descrivono la natura riescono a fare predizioni affidabili al prezzo di un compromesso: si descrivono solo le relazioni tra fenomeni fisici che avvengono a due diverse capacità di risoluzione. Sembra che, quando si scrive una teoria, non si debba pretendere che descriva il mondo fino all’infinitamente piccolo, ma che ci si debba accontentare che porti da quello che si può misurare con la risoluzione che si ha, a quello che si vede con una risoluzione migliore ma finita. Questo ci permette di porre un limite inferiore alla più piccola lunghezza con la quale può oscillare un’onda e ricavare le relazioni tra fenomeni fisici a energie diverse, che sono indifferenti alla limitazione introdotta. Il modo più semplice di fare questo è di considerare uno spaziotempo non “continuo”, bensì costituito da un insieme discreto di punti, un reticolo sottilissimo di cui non arriviamo a percepire le maglie, tanto sono strette (vd. fig. a). Questo fa perdere una simmetria importante come quella di Lorentz, ovvero le rotazioni nello spazio ordinario e quelle speciali nello spaziotempo di Einstein. Vengono rimpiazzate da simmetrie discrete. Se il reticolo è ordinato in ipercubi (cubi con più di tre dimensioni), solo girando di novanta gradi appare identico, un po’ come succede con file di alberi piantati ordinatamente: se ne vede uno solo, se ci si allinea in una certa direzione. Se però la sensibilità dei fenomeni che studiamo è rozza, come il polpastrello della nostra mano che tocca la superficie levigata, la simmetria sembrerà esatta, a dispetto della tessitura microscopica. Su questo reticolo ordinato viaggiano le onde, che naturalmente non possono oscillare dove non ci sono punti dello spaziotempo, e che quindi hanno proprio una lunghezza minima di oscillazione data dal passo del reticolo. La possibilità di scrivere le equazioni su un reticolo discreto ha un ulteriore vantaggio che ne ha decretato il successo. In un reticolo con un numero finito di punti si possono fare calcoli con l’aiuto di un calcolatore. Su di esso vengono “simulate” possibili configurazioni di onde e ne vengono campionate in numero sufficiente da riprodurre in media quello che accade in una soluzione esatta: su questo campione vengono effettuate le “misure” (si tratta naturalmente di simulazioni di misure), che si possono confrontare con le misure fatte dagli esperimenti. Una teoria, a tutt’oggi irrisolta e per la quale si ricorre a questo tipo di simulazioni numeriche per stime accurate, è quella della cromodinamica quantistica, ovvero la teoria che descrive le interazioni dei quark e dei loro “collanti” (i gluoni) all’interno dei protoni e neutroni che costituiscono il nucleo di un atomo. Solo attraverso simulazioni numeriche è possibile verificarne la validità nel regime in cui le interazioni sono più forti e solo attraverso le loro conferme siamo oggi fermamente convinti che la teoria sia quella giusta. Naturalmente l’accuratezza della risposta dipende dal numero di punti totali che ci si può permettere di simulare, ovvero in definitiva dalla potenza del calcolatore a disposizione. Se per ogni punto del reticolo (e oggi si arriva a reticoli con dieci milioni di punti) vi sono un centinaio di numeri che servono a descrivere le onde dei quark e gluoni, si arriva a un totale di circa un miliardo di numeri per ogni campione. E poi c’è il problema di risolvere sistemi di equazioni lineari con milioni di variabili: insomma, una mole di calcoli che mette a seria prova la potenza dei calcolatori più veloci. Non a caso il settore della cromodinamica quantistica rappresenta uno dei migliori banchi di prova per lo sviluppo di calcolatori superveloci che organizzano la propria architettura in funzione delle prestazioni che si hanno nelle simulazioni numeriche delle interazioni forti su reticolo. Questo all’Infn lo avevano capito molto presto e in particolare lo aveva capito Nicola Cabibbo che, con un gruppo di giovani ma già scaltriti teorici, primo fra tutti Giorgio Parisi, si mise negli anni ’80 a progettare un calcolatore dedicato alla soluzione numerica delle interazioni forti, iniziando quello che ha continuato fino a oggi con il nome di progetto Ape (Array Processor Experiment). Poche idee semplici, quali uno schema di molti processori non potentissimi, che potesse essere organizzato come l’architettura del reticolo da simulare; un protocollo di comunicazioni “a primo vicino”, che permettesse di mappare la struttura di base delle equazioni che, nello spaziotempo discretizzato, collegano solo punti contigui; e un insieme di memorie con una velocità di trasferimento dei dati bilanciata con la potenza dei processori, hanno permesso all’Infn, con la generazione Ape100 negli anni ’90, di essere alla vetta delle prestazioni nella competizione mondiale per questo tipo di calcoli. Idee che hanno fatto strada e che sono poi state riprese in calcolatori moderni, quali Blue Gene dell’Ibm che ricalca l’architettura Ape, o nella tendenza moderna di abdicare ai processori superpotenti in favore dei processori cosiddetti multi core o delle graphic processing unit, dove una moltitudine di processori tiene testa alle poderose sfide dei videogiochi moderni. E se anche nella realtà, e non solo nelle simulazioni su calcolatore, lo spaziotempo fosse davvero un insieme discreto di punti, magari non organizzato regolarmente ma casuale? Non lo sappiamo o non ne abbiamo ancora trovato evidenza: è probabilmente una questione di capacità di risoluzione e forse prima o poi lo scopriremo. In fondo la fisica moderna ha progressivamente demolito tutti gli assoluti matematici della fisica dell’Ottocento: velocità infinite, misure arbitrariamente esatte… Forse il prossimo mito a cedere sarà lo spaziotempo continuo. Per ora continuiamo ad accarezzarne la superficie levigata.