Il conformismo dello scienziato

    Si potrebbe chiamarlo, senza accezione negativa, “conformismo”.
    E’ l’attitudine a interpretare il nuovo servendosi di categorie logiche e linguaggi già sperimentati, che si sono mostrati adeguati a descrivere la realtà conosciuta. Per quasi tutti noi è la strada obbligata per la conoscenza. Ma fino a che punto è ragionevole che lo sia anche per chi deve misurarsi quotidianamente col nuovo, come gli scienziati impegnati nella ricerca fondamentale?

    E’ naturale pensare che l’accumularsi di osservazioni di fenomeni sempre nuovi debba necessariamente portare a periodiche revisioni degli strumenti interpretativi. In che misura un conformismo scientifico troppo tenace e diffuso può ostacolare, o comunque ritardare, questi momenti di rottura?

    In un certo senso, si può dire che la comparsa di atteggiamenti conformisti nella scienza sia la manifestazione del prevalere di un’attitudine deduttiva. Il tentativo di sistemare nuovi elementi empirici all’interno di una struttura logica preesistente, anche se accompagnato dall’introduzione (più o meno ad hoc) di modifiche non irrilevanti, è certamente più simile ad una “dimostrazione” che ad un processo puramente induttivo, nel quale i dati sperimentali vengono analizzati senza l’ausilio di forti ipotesi preliminari.

    E’ evidente che il progredire della scienza, almeno così come noi la intendiamo dai tempi di Galileo, è legato a una sorta di compromesso tra l’attitudine induttiva e quella deduttiva, e che il prevalere dell’una sull’altra può finire per provocare qualche danno. Episodi che illustrano il modo di procedere che abbiamo definito conformista sono presenti in abbondanza nella storia di diverse discipline.

    La breve ma intensa vita dell’etere, una storia istruttiva

    Un caso emblematico è quello dell’etere, che fece la sua comparsa nella fisica del secolo scorso.

    Già nel XVII secolo, la meccanica ondulatoria aveva permesso di descrivere in modo quantitativo le proprietà elastiche dei solidi e i fenomeni acustici. Secondo questa teoria, il suono viene prodotto dalla vibrazione degli atomi di un mezzo elastico, e si propaga all’interno del mezzo stesso in modo analogo a quello delle onde marine. All’osservazione dei fenomeni di riflessione, rifrazione e diffrazione della luce, che ne indicavano chiaramente la natura ondulatoria, seguì quindi in modo del tutto naturale il tentativo di descrivere i fenomeni luminosi, e più in generale tutti i fenomeni elettromagnetici, servendosi dell’apparato teorico esistente.

    Si cercò, in altre parole, di unificare tutti i fenomeni ondulatori all’interno di un unico schema concettuale. L’ostacolo maggiore sulla strada di questa unificazione era il fatto che le onde luminose si propagano anche in assenza dei mezzi elastici a noi familiari, come aria e acqua – basti pensare alla luce che ci arriva dai corpi celesti. Questo ostacolo venne aggirato ipotizzando che tutto lo spazio fosse pervaso da un mezzo sconosciuto, l’”etere”, che doveva possedere tutte le proprietà elastiche necessarie per spiegare i fenomeni ottici ed elettromagnetici ma, al tempo stesso, essere così elusivo da sfuggire all’esperienza diretta dei nostri sensi.

    L’esito della storia è cosa nota. Nel 1887, Michelson e Morley effettuarono un esperimento con lo scopo di misurare il “vento d’etere”, prodotto dal moto della Terra rispetto all’etere stesso, che rappresentava il sistema di riferimento assoluto per i fenomeni elettromagnetici. Si cercava, in altre parole, di misurare la velocità assoluta della Terra. Ma il risultato fu negativo: del vento d’etere non si trovò traccia, e si dovette attendere 18 anni prima che Einstein desse una spiegazione completamente soddisfacente di questo esperimento nell’ambito della teoria della relatività speciale. In questa teoria rivoluzionaria l’unificazione dei fenomeni meccanici ed elettromagnetici veniva ottenuta in modo del tutto naturale, come risultato di una radicale revisione dei concetti di spazio e tempo.

    Ma anche alla luce dei fatti, la formulazione della teoria dei fenomeni ottici basata sull’esistenza dell’etere non deve essere vista come un evento negativo, o che comunque si sarebbe potuto evitare. Si è trattato invece di un passaggio necessario. Il lato “oscuro” del conformismo scientifico si è semmai manifestato nei molti tentativi di spiegare il fallimento dell’esperimento di Michelson e Morley ipotizzando meccanismi ad hoc. Non mancò neppure chi si spinse fino a avanzare l’ipotesi, addirittura tolemaica, che l’etere fosse in quiete rispetto alla Terra.

    Incidentalmente, va anche ricordato che la mancata osservazione del vento d’etere ebbe una ricaduta tecnologica positiva. Infatti il risultato imprevisto – e per qualcuno inaccettabile – dell’esperimento di Michelson e Morley, e la conseguente esigenza di ripeterlo con precisione sempre maggiore, portarono a una accelerazione nello sviluppo delle tecniche e degli strumenti necessari. Per la messa a punto di nuovi accuratissimi strumenti interferometrici Michelson ricevette nel 1907 il premio Nobel.

    Quella dell’etere è una storia molto istruttiva, ma non unica. E’ abbastanza stupefacente constatare che, nella moderna scienza galileiana, l’elaborazione di costruzioni teoriche fondate sull’esistenza di entità che eludono l’osservazione sperimentale diretta sia una pratica non infrequente. Basti ricordare che, fino all’inizio del XIX secolo, il cambiamento di temperatura dei corpi veniva spiegato postulando l’esistenza di una sostanza invisibile, chiamata “calorico”, che fluiva dai corpi a temperatura più alta verso quelli a temperatura più bassa. La teoria del calorico spiegava in modo perfetto un gran numero di fenomeni legati al trasferimento di calore, e fu completamente abbandonata solo alla metà del secolo, quando gli esperimenti di Joule dimostrarono l’equivalenza tra calore ed energia meccanica.

    Conformismo scientifico nella scienza contemporanea

    E’ difficile dire oggi quanto il conformismo sia presente nella scienza contemporanea. Quello che possiamo fare è provare a rintracciare, nel panorama della ricerca attuale, situazioni che presentino qualche analogia col caso dell’etere.

    Splendori e miserie delle teorie di gauge

    L’elettrodinamica quantistica, cioè la teoria quantistico-relativistica dell’interazione elettromagnetica – sviluppata nel dopoguerra – è certamente una delle teorie di maggiore successo della storia della fisica. La semplicità della sua struttura logica, unita all’eleganza ed alla potenza della sua formulazione matematica, hanno reso possibile una descrizione accurata dei processi elettromagnetici a livello microscopico, a partire dalle interazioni tra i costituenti elementari della materia. Anche l’esistenza di fenomeni non ancora osservati, ma predetti dalla teoria, è stata sempre puntualmente confermata dagli esperimenti.

    Non c’è quindi da stupirsi se l’estensione dell’apparato logico e operativo dell’elettrodinamica quantistica – della teoria dei campi cosiddetti di gauge – alla trattazione delle interazioni deboli (responsabili di certi decadimenti radioattivi) e delle interazioni forti (responsabili del legame tra protoni e neutroni all’interno del nucleo atomico) sia stato uno degli obiettivi prioritari per la fisica teorica degli ultimi decenni.

    Il risultato forse più straordinario dell’impegno profuso è stata la formulazione della teoria unificata delle interazioni deboli ed elettromagnetiche, dovuta a Sheldon Glashow, Abdus Salam e Steven Weinberg. In questa teoria, detta elettrodebole, fenomeni del tutto diversi – come il decadimento beta del neutrone e l’attrazione elettrostatica tra cariche di segno opposto – sono visti come manifestazioni diverse della stessa interazione. Essi vengono descritti da una opportuna generalizzazione della teoria del campo elettromagnetico, in cui alla particella “portatrice” della forza elettromagnetica, il fotone, vengono affiancate le particelle “portatrici” della forza debole, denominate W, W e Z0.

    Il maggiore ostacolo sulla via dell’unificazione, in questo caso, era rappresentato dal fatto che la semplice generalizzazione dello schema dell’elettrodinamica quantistica portava a concludere che, come il fotone, le particelle W, W e Z0 avessero massa nulla. Questa circostanza veniva però contraddetta dall’evidenza sperimentale. In questo caso, infatti, nelle collisioni tra fasci di particelle di alta energia – il cui studio è reso possibile dalle grandi macchine acceleratrici – le particelle W, W e Z0 avrebbero dovuto essere prodotte in numero comparabile a quello dei fotoni. Ma ciò non accadeva.

    Per risolvere questo problema era necessario ipotizzare un meccanismo, compatibile con la struttura generale della teoria, che permettesse alle particelle W, W e Z0 di acquistare una massa finita senza modificare le proprietà del fotone.

    Una possibile soluzione venne suggerita negli anni sessanta da un fisico dell’Università di Edimburgo, Peter Higgs. Egli dimostrò che le particelle “portatrici” della forza debole possono acquistare una massa non nulla per effetto dell’interazione con una nuova particella, anch’essa dotata di massa. Questa idea, nata peraltro in un contesto completamente diverso, dette i risultati sperati. Si riuscì, allo stesso tempo, a giustificare la massa nulla del fotone e a prevedere le masse elevate dei bosoni W+, W e Z0, i cui valori furono poi confermati sperimentalmente negli anni ottanta.

    C’è però una difficoltà non trascurabile, e qui interviene l’analogia con il caso dell’etere. Non solo l’esistenza del bosone di Higgs, elemento basilare del bellissimo apparato logico e matematico della teoria elettrodebole, non è ancora stata provata sperimentalmente, ma le proprietà stesse di questa particella non sono determinate in modo stringente dalla teoria. In particolare, la mancanza di informazione precisa sulla sua massa non ne rende semplice la ricerca.

    Tutto funziona se si riempie il vuoto

    Anche per poter estendere la teoria dei campi di gauge alla descrizione dell’interazione forte, cioè alla teoria chiamata “cromodinamica quantistica”, c’è un prezzo da pagare. L’attitudine “conformista”, che in questo caso induce a estendere gli strumenti matematici propri dell’elettrodinamica alla trattazione dell’interazione forte, richiede una profonda revisione di alcuni concetti fondamentali e l’introduzione di ipotesi in qualche misura ad hoc.

    In questo caso, le otto particelle “portatrici” della forza, i gluoni (dall’inglese glue: colla), sono sì prive di massa (il che, incidentalmente, implica che per qualche motivo il meccanismo di Higgs non si manifesti allo stesso modo in tutte le teorie di gauge), ma, a differenza dei fotoni – elettricamente neutri – posseggono una carica analoga alla carica elettrica, detta di “colore”.

    Quindi, secondo la cromodinamica quantistica, oltre ai sistemi formati da quarks (così sono chiamate le particelle che svolgono un ruolo analogo a quello svolto dall’elettrone nell’elettrodinamica) incollati insieme dallo scambio di gluoni, sono possibili sistemi composti solo da gluoni, tenuti insieme dall’interazione attrattiva generata dalle loro cariche. Questi aggregati di gluoni, chiamati glueballs (in italiano “grumi di colla”) non sono però ancora stati osservati sperimentalmente.

    Ma c’è anche un altro aspetto che rende ardua l’applicazione dell’apparato matematico delle teorie di gauge alle interazioni forti. Mentre l’intensità della forza che si esercita tra due cariche elettriche diminuisce al crescere della loro distanza relativa, l’interazione attrattiva tra i quarks aumenta al crescere della distanza. E’ per questo motivo che, secondo la cromodinamica quantistica, i quarks esistono solo confinati all’interno degli “adroni” (ovvero le particelle soggette all’interazione forte) e non possono essere osservati isolatamente.

    Di conseguenza, le tecniche di calcolo usate per la soluzione dei problemi dell’elettrodinamica sono applicabili nell’ambito della teoria delle interazioni forti solo per la trattazione dei fenomeni di alta energia, che vengono studiati utilizzando grandi macchine acceleratrici. Il successo della cromodinamica quantistica nel descrivere quantitativamente questi processi è stato straordinario, ma la spiegazione dei fenomeni di bassa energia – indispensabile per arrivare a comprendere, a esempio, le proprietà del protone – è un problema ancora completamente aperto.

    Dal punto di vista formale, il tentativo di incorporare il fenomeno del confinamento all’interno della teoria dei campi di gauge è basato su una profonda revisione concettuale della struttura del vuoto. Nelle teorie di campo, l’esistenza di ogni particella è associata a un particolare modo di vibrazione del vuoto, che può quindi essere visto come un mezzo elastico immateriale. Il confinamento dei quarks all’interno degli adroni può essere spiegato “riempiendo” il vuoto di campi che generano tutte le proprietà necessarie.

    Non si può non restare colpiti dall’analogia tra questo modo di procedere e quello che portò all’introduzione dell’etere. Particolarmente curioso è il fatto che la somiglianza tra il vuoto “pieno” della cromodinamica quantistica e l’etere dell’elettromagnetismo classico sembra non fermarsi al livello concettuale. Oltre a svolgere la stessa funzione logica, che è quella di assicurare la coerenza interna della teoria, questi due oggetti hanno ispirato rappresentazioni grafiche sorprendentemente simili. L’etere secondo James Clerk Maxwell (figura A) non sembra poi tanto diverso dal vuoto della cromodinamica quantistica, come appare in una recente pubblicazione scientifica (figura B).

    LASCIA UN COMMENTO

    Please enter your comment!
    Please enter your name here