Dove vola il particolato, le leggi del moto turbolento

emissioni moto tubolento
(Foto: veeterzy on Unsplash)

Il moto turbolento e la dispersione di inquinanti sono un argomento di ricerca e un settore ricco di applicazioni con una rilevante valenza nel campo ambientale. Si tratta di un settore specifico, che costituisce comunque un paradigma esemplare, a nostro parere, delle interazioni tra ricerche fondamentali e applicazioni. In questo articolo vorremmo illustrare alcuni aspetti del problema, seguendo lo sviluppo di quelle idee che a noi appaiono come le pietre miliari di questa storia, per giungere a ragionare sulla situazione attuale.

Cos’è la turbolenza: tre caratteristiche chiave

Casualità

Di cosa vogliamo parlare è presto detto, se non vogliamo dare una definizione troppo pedante. Diciamo che l’idea di flusso turbolento è comune a tutti, visto che l’atmosfera è turbolenta: quando c’è un po’ di vento, in stagione, vediamo i mulinelli delle foglie secche, mentre nelle giornate soleggiate e di “bonaccia”, senza vento, si sollevano bolle d’aria calda, che percepiamo sotto forma di ondeggiamenti della trasparenza dell’aria, per esempio, sull’asfalto. Anche la corrente di un ruscello è turbolenta, e turbolento è il mare (anche se qui la faccenda è meno ovvia, stando seduti sul bagnasciuga. Però le prime misure che portarono in evidenza un aspetto essenziale della turbolenza, dieci anni dopo la previsione teorica, le fecero proprio in mare, e il perché lo si capirà magari tra poche righe). L’irregolarità del vento, il suo essere sempre variabile, ci suggerisce che una caratteristica importante del flusso turbolento è data proprio da questa casualità, cosicché parliamo di velocità media, per esempio, e non di velocità, proprio perché vogliamo e dobbiamo usare dei concetti statistici per descrivere le proprietà della turbolenza. E il primo punto è proprio questa casualità che caratterizza il moto (e tutto il resto: la temperatura, la pressione, eccetera).

Probabilità

Quando pensiamo alla casualità, pensiamo al lancio di un dado: ogni lancio dà un risultato che è indipendente dal lancio precedente (ovvio che stiamo giocando con un dado non truccato). Voi siete sicuri che, su tanti (tanti tanti) lanci, avrete lo stesso numero di uscite per ciascuna faccia, e siete altrettanto sicuri che se il cinque è uscito a un certo lancio, la probabilità che torni a uscire al lancio successivo è esattamente la stessa come per il tre, o il due (siatene sicuri). Qualcosa è invece diverso in un flusso turbolento. Infatti, esaminando attentamente il flusso, ci si accorge che questo moto è organizzato, cioè non è veramente o totalmente casuale, ma se in un certo istante e in un certo punto la velocità è tot, allora è molto probabile che a piccola distanza e dopo poco tempo la velocità sarà assai simile a tot: esiste una struttura, in senso statistico, sia nello spazio sia nel tempo, per ogni flusso turbolento. (Naturalmente, se la distanza è abbastanza grande, o se l’intervallo di tempo è abbastanza lungo, i valori di velocità sono indipendenti, come le uscite del lancio del dado).

Si pone subito un quesito: questa struttura è universale o dipende dalle condizioni esterne (le pareti, le forze che agiscono, la natura del fluido: acqua, aria o miele)?

Mescolamento

La terza proprietà (dopo la casualità e l’esistenza di una struttura in senso statistico) è che il flusso turbolento ha una efficacissima capacità di mescolare le sue proprietà (per esempio il calore, o la concentrazione di una qualsiasi sostanza che vi venga immessa). Anche di questa proprietà abbiamo certo tutti un’idea intuitiva basata sull’esperienza: in modo qualitativo, tutti sappiamo di dover mescolare il caffè se lo vogliamo dolce e ancora caldo.

Elencando queste tre proprietà non abbiamo dato una definizione di turbolenza, ma abbiamo fissato le idee sulle proprietà caratterizzanti, e questo basterà. Può essere incoraggiante sapere che almeno una volta, a una conferenza tenuta a Oxford nel 1958, a cui erano presenti numerosi famosissimi scienziati, tra i quali quasi tutti quelli che incontreremo più avanti, si giunse alla conclusione che non era il caso di provare a definire la turbolenza, il che è un modo diplomatico per dire che non si riusciva a farlo in modo convincente [1].

Con questo abbiamo inquadrato il contesto in cui vogliamo porci, per parlare del problema del trasporto e della dispersione e delle applicazioni possibili ai problemi dell’ambiente in cui viviamo. Da qui inizia la storia.

Le intuizioni di Leonardo e la matematica del trasporto turbolento

Iniziamo citando tre frasi di Leonardo da Vinci: “l’acqua che tocchi de’ fiumi è l’ultima di quella ch’andò e la prima di quella che viene” (Codice Trivulziano, 34 V); “doue la turbolenza dellacqua si genera/doue la turbolenza dellacqua si mantiene plugho/doue la turbolenza dell’acqua si posa”; “l’acqua che dalle cime de’ monti alle lor radici discende, in ogni grado del suo discenso acquista grado di turbulentia” (Codice Atlantico, 79 RC). Da queste e altre frasi, dai suoi disegni possiamo capire come Leonardo avesse una idea nient’affatto banale del fatto che in condizioni molto frequenti il moto dell’acqua sia in qualche modo irregolare, dia luogo a mescolamento in modo efficiente, e possieda una sorta di “struttura”, soggetta a decadimento allontanandosi da ciò che la genera. In qualche modo è l’idea che abbiamo tentato di propinarvi poco sopra.

Leonardo da Vinci, Il diluvio, 1517-1 via Wikipedia.

Tuttavia, la comprensione di un fenomeno naturale passa attraverso la sua descrizione in termini matematici (questo è un atto di fede). Le equazioni del moto di fluidi, chiamate equazioni di Navier-Stokes, datano al 1823 [2] e sono figlie della meccanica classica (la legge di Newton che ci predice la relazione tra accelerazione di un corpo e le forze che la determinano) e dell’idea che un sistema di molecole (un liquido, un gas) visto da “lontano” (cioè senza vedere il comportamento delle singole molecole) si comporta come un continuo. Queste equazioni contengono tutto quanto serve a descrivere e prevedere il moto di atmosfera e oceani: potremmo dire che il loro potere evocativo è grandissimo, ma sappiamo estrarre solo una parte delle conseguenze e usarle per la comprensione e per le applicazioni (Richard Feynmann, alla fine del cap. 41 del suo Corso di fisica, sintetizza in modo affascinante questa situazione). Joseph Boussinesq nel 1877, tra l’altro, suggerì che le proprietà di mescolamento che caratterizzano la turbolenza potessero essere descritte in modo simile alla viscosità molecolare (cioè, dal punto di vista delle caratteristiche medie, un flusso turbolento visto da lontano è simile a un fluido laminare, che tuttavia mescola le sue proprietà in maniera molto più efficiente). Questa idea si è rivelata estremamente utile nelle applicazioni, ed essendo una approssimazione ha generato sequenze di disastri, sempre nelle applicazioni.

Studiando il movimento dell’acqua entro un tubo, a diverse velocità, Osborne Reynolds (1883) definì l’idea della transizione da un moto deterministico, laminare, caratteristico delle basse velocità, a un moto “impredicibile”, caotico, fluttuante, caratteristico delle alte velocità. Questo moto è turbolento, e possiede quelle proprietà che abbiamo descritto. Reynolds trovò che era possibile identificare un numero, ottenuto combinando la velocità del flusso, la sua dimensione e l’attrito interno del fluido, il cui valore permette di rappresentare bene, in modo universale, questa transizione. Si tratta di un numero che prende il suo nome (talvolta c’è giustizia al mondo). Anche se non è intuitivo, l’attrito interno dell’acqua risulta più piccolo di quello dell’aria, e quindi questa transizione avviene a velocità più bassa nell’acqua piuttosto che nell’aria (proprio per questo, certe proprietà della turbolenza sono state trovate più facilmente, e quindi storicamente prima, con misure nell’oceano piuttosto che in atmosfera).

A margine, ma non troppo, dobbiamo ricordare la nascita dell’idea dello strato limite, cioè del fatto che la presenza di una parete solida introduce nel moto delle caratteristiche speciali (non solo il fluido non attraversa la parete, ma man mano che ci si avvicina alla parete capitano cose curiose alle caratteristiche del moto, per esempio il mescolamento diventa meno efficiente, e nello stesso tempo è la presenza della parete a generare un meccanismo di trasferimento di energia cinetica dalla velocità media alla turbolenza). Questa idea risale a Ludwig Prandtl, nel 1904, e la citiamo perché la maggior parte della nostra vita la passiamo nello strato limite dell’atmosfera. Questo è l’inizio di una storia della turbolenza.

Il moto browniano e la storia della diffusione

In parallelo dobbiamo avviare la storia della diffusione. Robert Brown, un botanico inglese, nel 1827 osservò che piccolissimi grani di polline, in sospensione nell’acqua, manifestano un moto irregolare e caotico, che fu chiamato moto browniano. Il moto browniano mostra che un fenomeno a piccola scala (gli urti delle molecole d’acqua in agitazione termica) produce un effetto a scala maggiore (il moto casuale di un grano di polline, soggetto alle collisioni delle molecole). In effetti noi non conosciamo in modo deterministico come sarà il prossimo urto, e quindi non possiamo prevedere esattamente il moto di un singolo grano di polline. Però possiamo provare a conoscere qualcosa sul comportamento del polline dopo tanti urti, quando l’effetto del singolo urto si è perso nella molteplicità degli urti.

Questa spiegazione del moto browniano venne pubblicata nel 1905 da Albert Einstein, utilizzando per la prima volta il concetto di modello stocastico per un fenomeno naturale: il moto del grano di polline è così complesso che può essere descritto solamente in termini probabilistici. Einstein ipotizzò che lo spostamento istantaneo del grano sia indipendente dai precedenti spostamenti, e da qui risulta (ma non è ovvio) che la dimensione di una nuvoletta di grani di polvere cresce al passare del tempo come la radice quadrata del tempo stesso. Ecco che abbiamo una legge deterministica non per la posizione di un grano singolo, ma per la dimensione (si dovrebbe dire la radice quadrata della varianza delle posizioni, con un linguaggio un po’ più preciso) della nuvola costituita da tanti grani (ed è importante che siano tanti). Tutte le volte che incontriamo una legge siffatta diciamo che stiamo osservando un fenomeno diffusivo.

Tre anni dopo, nel 1908, Paul Langevin scrisse in modo innovativo l’equazione del moto per il grano di polline (l’equazione che stabilisce che l’accelerazione di un corpo è proporzionale alla somma delle forze che agiscono su quel corpo). Egli assunse che due forze agiscano sul grano di polline: una deterministica, che rappresenta l’effetto dell’attrito del fluido viscoso (e quasi tutti i fluidi sono viscosi), e una stocastica, che tiene conto degli urti casuali delle molecole del fluido. L’equazione che prende il suo nome aprì un nuovo settore della matematica: il calcolo stocastico, che abbiamo imparato a trattare rigorosamente solo verso gli anni Cinquanta del secolo scorso. Tra l’altro, questa equazione è alla base di una ampia e gloriosa famiglia di modelli per la dispersione turbolenta.

Taylor, Richardson e le leggi della dispersione

Nel 1986 si tenne a Cambridge (UK) una solenne conferenza per celebrare i cent’anni della nascita di GI (come viene chiamato amichevolmente, con reverenza, Geoffrey Ingram Taylor, uno dei padri fondatori della fluidodinamica moderna, nonché nipote del matematico George Boole). La seguente frase tratta dalla conferenza introduttiva è una perfetta epigrafe, che crediamo piacerebbe a chiunque fa ricerca: “G.I. Taylor fu un uomo felice che spese una lunga vita facendo ciò che più desiderava fare e facendolo supremamente bene” [3]. Magari suona un po’ agiografico, però non è male.

In realtà, GI disse di sé che il corso della sua carriera scientifica fu quasi completamente indirizzato da circostanze esterne [4]. Più che un caso di schizofrenia, questo è un esempio eccellente di come una persona geniale (che fosse anche di buon carattere?) possa sviluppare il proprio lavoro di ricerca.

In relazione al problema del trasporto, di cui ora ci occupiamo, Taylor nel 1921 dimostrò come, in condizioni molto idealizzate (un flusso turbolento di caratteristiche omogenee nello spazio e stazionarie nel tempo), il moto di tante particelle indipendenti l’una dall’altra non sia direttamente predicibile, ma si possano determinare esattamente alcune proprietà statistiche dell’insieme: qualcosa di simile ai grani di polline, dunque.

Un esperimento mentale

Consideriamo una sorgente che emetta un inquinante, in atmosfera o in mare. Poniamo che sia di piccole dimensioni, e che emetta in modo continuo. Immaginiamo di essere lontani da bordi solidi (terreno, fondo marino, costruzioni ecc.). Immaginiamo anche di essere in condizioni stazionarie. Immaginiamo che l’inquinante sia un tracciante perfetto del moto del fluido, quindi che non sia più pesante del fluido (tipo particella solida), né più leggero (tipo goccia di petrolio in mare, o gas caldo in atmosfera), e che non reagisca chimicamente con altri componenti, sparendo dalla circolazione e dando luogo ad altri prodotti. Quindi parliamo di “particelle” di tracciante pensando a questa idealizzazione, come se avessimo identificato una molecola, o una piccola nuvoletta di molecole, che per quanto ci riguarda rimane inalterata per tutto il tempo che vogliamo considerare, e si muove proprio come il fluido.

Allora, pensiamo a una di queste particelle che a un certo istante esce dalla sorgente. All’inizio si muove nella direzione della sua velocità iniziale (che sarà casuale, ovviamente). Poiché abbiamo visto che nel tempo la velocità è un po’ legata al suo valore precedente, per un po’ ancora la particella si muoverà con un moto simile a quello iniziale (quasi la stessa velocità, quasi la stessa direzione). In questa fase, la dimensione di una nube di particelle (di un insieme di tante particelle indipendenti le une dalle altre) cresce in modo direttamente proporzionale al tempo (è diverso dal moto browniano; ed è colpa del fatto che le velocità del flusso turbolento sono correlate nel tempo, mentre gli urti delle molecole sul grano di polline non sono correlati). Passato un certo tempo, le velocità diventano scorrelate, la nuvola di particelle cresce di dimensioni più adagio, con la radice quadrata del tempo: la turbolenza si comporta come un fenomeno diffusivo. Taylor capì questo fenomeno e ne diede una rappresentazione matematica molto convincente. Tra l’altro, potete intuire che si può stimare l’intervallo di tempo medio in cui la velocità diventa scorrelata dal valore iniziale: questo tempo viene usato come misura della vita media delle “strutture” turbolente di cui abbiamo parlato (i vortici). Analogamente, una operazione simile nello spazio (misurare la distanza alla quale le velocità risultano scorrelate, a un certo istante) ci permette di stimare la dimensione media dei vortici.

Ma cosa capita se consideriamo due particelle che escono assieme dalla sorgente? A causa del fatto che la turbolenza ha una struttura, non si muoveranno indipendentemente l’una dall’altra, almeno per un po’ di tempo (finché sono abbastanza vicine, all’interno dello stesso vortice). Questo è il problema idealizzato che dobbiamo affrontare quando, per fare un esempio, si verifica un rilascio molto breve di un inquinante. Ora le particelle si muovono assieme per un po’ di tempo, poi vengono coinvolte in moti a scala sempre più grande.

Attenzione, qui si introduce una nuova idea: in un flusso turbolento non c’è una sola struttura, con un tempo di vita e dimensione definiti, ma un gran numero di strutture, dalle più piccole alle più grandi (quelle che possiamo percepire osservando il moto dell’acqua in un torrente, come faceva Leonardo, o considerando le immagini delle nubi viste da un satellite, come facciamo guardando le previsioni del tempo in televisione), e quindi il processo di dispersione per una coppia di particelle (per un insieme di tante coppie di particelle) è un po’ diverso, almeno finché le particelle sono abbastanza vicine, di quanto accade per particelle indipendenti.

uragano
(Credits: NASA Earth Observatory maps by Joshua Stevens, using data from the NASA-NOAA GOES project and Unisys Weather. via earthobservatory.nasa.gov)

L’idea di base per descrivere questa dispersione accelerata (la distanza tra due particelle, mediata su un gran numero di coppie, cresce come la radice quadrata del cubo del tempo, cioè un po’ più velocemente che per la dispersione “alla Taylor”) è dovuta a Lewis Fry Richardson, che la pubblicò nel 1927, partendo da osservazioni sul moto dei palloni in atmosfera: man mano che la distanza tra due palloni, rilasciati contemporaneamente e prossimi l’uno all’altro, cresce, strutture turbolente sempre più grandi e più energetiche agiscono e li separano sempre più (fino a che la correlazione non svanisce, ossia la distanza tra i palloni è maggiore delle strutture più grandi).

In attesa di una descrizione matematica del fatto che in un flusso turbolento esiste una molteplicità di strutture, Richardson espresse la sua intuizione parodiando una poesiola da I viaggi di Gulliver: “Big whirls have little whirls/ that feed on their velocity,/ and little whirls have lesser whirls/ and so on to viscosity/ in the molecular sense” (“Grandi vortici son fatti di piccoli vortici/che si alimentano della loro velocità/e i piccoli vortici son fatti di vortici ancor più piccoli/giù giù sino alla viscosità/in senso molecolare, T.d.A.).

Richardson fu stimolato nel suo lavoro dalle vicende politiche e sociali del tempo, ed ebbe il merito di dichiararlo esplicitamente: “Il punto della questione è che il più grande stimolo verso le scoperte scientifiche è costituito dalle loro applicazioni pratiche” [5]. Egli è anche noto agli addetti ai lavori per avere “inventato” le previsioni numeriche del tempo, quarant’anni prima dell’utilizzo dei calcolatori.

Kolmogorov e Landau

Nella storia delle idee che portano alla nostra attuale comprensione dei meccanismi di dispersione e trasporto nei flussi turbolenti entra di prepotenza Andrei Nikolaevich Kolmogorov (che chiameremo AN, secondo l’uso russo, come facevano colleghi e studenti). Assieme ad AN entrano i suoi allievi e colui che gli mosse una storica e fruttuosa critica, Lev Davidovic Landau. AN è stato un grande matematico e un brillante “meccanico”. (Incidentalmente, si ricordano suoi pare rilevanti contributi allo studio della storia medioevale russa, e alla linguistica applicata alla analisi della poesia russa. Guarda un po’…).

Tra i suoi vari interessi più direttamente matematici, AN approfondì lo studio dei processi stocastici. Come si diceva prima a proposito di grani di polline e di “particelle” di fluido, non sapremo mai dove va una singola particella di tracciante, ma possiamo sapere dove va il baricentro di una nuvola di particelle, o come si allarga la nuvola nel tempo, o anche come sono distribuite le particelle nella nuvola, cioè se ne troviamo di più al centro, e quante, rispetto alla periferia.

Va da sé che questa capacità di analisi si attaglia perfettamente alla turbolenza, come AN stesso dichiarò [6]: “Mi interessai allo studio dei flussi turbolenti di liquidi e gas nei tardi anni Trenta. Mi fu chiaro fin dall’inizio che il principale strumento matematico per questo studio doveva essere la teoria delle funzioni casuali di molte variabili (campi casuali) che era stata appena sviluppata. Inoltre, mi fu subito chiaro che non c’era possibilità di sviluppare una teoria matematica chiusa. In mancanza di tale teoria, fu necessario utilizzare alcune ipotesi basate sui risultati del trattamento dei dati sperimentali”.

Un po’ trionfalistico; non si sa se anche negli anni Trenta fosse così sicuro di sé, ma a posteriori gli si perdona tutto (uno di noi ha un amico/collega che ha battezzato kolmogorov il suo calcolatore personale). È molto interessante notare la chiarezza circa la necessità di fondere risultati sperimentali con sviluppi teorici per giungere almeno a una parziale comprensione della turbolenza. Interessante è anche la frase successiva: “Pertanto fu importante trovare collaboratori di talento capaci di lavorare in una situazione di tal fatta, cioè che sapessero combinare gli studi teorici con l’analisi dei risultati sperimentali. Ed in questo io ebbi successo”. Anche questa osservazione circa le qualità dei collaboratori sarà ovvia, ma ci piace ricordarla in quanto non è mai facile realizzare in pratica un tale intento.

Ritornando al nostro problema, AN nel 1941 pubblicò alcune brevi note che ci spiegano che le proprietà fondamentali della turbolenza sono invarianti per cambiamenti di scala per scale spaziali più grandi di quelle dominate dalla viscosità, e più piccole delle scale alle quali si risente delle condizioni al contorno: un intervallo di scale spaziali che prende il nome di intervallo inerziale (la poesiola di Richardson tradotta in termini fisico-matematici). Trovò anche il modo per determinare quantitativamente le relazioni tra scala spaziale, velocità e distribuzione dell’energia cinetica in tale intervallo di scale. Grazie al suo lavoro (e a quello dei suoi così ben scelti collaboratori) abbiamo ora un modo per quantificare le idee discusse prima: sappiamo come è fatta quella struttura della turbolenza che determina come le coppie di particelle di fluido si separano durante la fase intermedia della dispersione.

In effetti quello che ci dice la teoria è che la varianza della differenza di velocità tra due particelle di fluido a distanza nulla è, ovviamente, nulla; a distanza l nell’intervallo inerziale tale varianza è proporzionale alla radice cubica del quadrato di tale distanza, cioè a l2/3, ossia cresce con la distanza. Per questo motivo, all’aumentare della distanza, le coppie di particelle tendono a separarsi sempre più, dando origine alla “legge di Richardson”, cioè a un regime di “superdiffusione”. Quando le particelle sono tanto distanti da essere reciprocamente indipendenti, la varianza della differenza delle velocità è pari al doppio della varianza delle singole velocità, non dipende più dalla distanza, e la dispersione delle particelle è nuovamente descritta come nel moto browniano: ritroviamo nuovamente un processo diffusivo.

Abbiamo citato Landau. Landau mise in dubbio la descrizione del 1941 dell’intervallo inerziale, criticando l’idea che tale comportamento sia veramente ritrovabile in ogni flusso turbolento, cioè che sia universale. Negli anni Sessanta si cominciò a capire (e AN stesso contribuì a questo approfondimento) che la struttura intima della turbolenza è intermittente, ovvero che certi eventi (per esempio, valori estremi della velocità) si realizzano occasionalmente, e seguono proprietà statistiche diverse da quelle del lancio dei dadi (un po’ come per le alluvioni). Tutto questo non influenza sostanzialmente la descrizione dei fenomeni di dispersione di cui abbiamo parlato finora, ma ha molte implicazioni quando si va a studiare la struttura “fine” del flusso turbolento, vicino, per così dire, alla viscosità.

Batchelor e la distribuzione delle particelle

Per imparare di più su come si disperdono le particelle, non ci basta sapere dove va il baricentro e quanto è larga la nuvoletta. Possiamo intuitivamente accettare che la situazione è diversa se entro la nuvoletta tutte le particelle sono distribuite uniformemente, o se c’è un massimo da qualche parte (in questo secondo caso, non sarete contenti di sapere solo il valore medio, perché se si tratta in un inquinante tossico e vi trovate nella zona del massimo, potreste stare assai peggio di chi si trova dalle parti delle code, lontano dal massimo. Una gallina a me e nessuna a te fanno differenza rispetto a mezza gallina a testa: non è la quantità media di gallina a essere rilevante, come tutti sanno, ma la fluttuazione attorno alla media).

Nel 1952 George Keith Batchelor pubblicò un lavoro in cui calcolava la forma della distribuzione di probabilità delle particelle, ovvero come sono distribuite le loro posizioni e le loro velocità. (Anche attraverso la teoria di Richardson si può ottenere una distribuzione, che è diversa da quella di Batchelor. Quella vera, se c’è, non è ancora nota al di là di ogni dubbio).

Un aneddoto: Batchelor smise di occuparsi intensivamente di turbolenza più o meno in coincidenza con la conferenza di Marsiglia, nel 1961, perchè “la difficoltà di ricavare deduzioni precise circa la turbolenza cominciava ad essere frustrante, ed io non riuscivo a vedere alcun reale passo avanti nella letteratura corrente” [7]: la speranza di giungere ad una descrizione esatta attraverso le equazioni (e opportune chiusure, sulla falsariga della proposta di Bussinesq) era ormai tramontata. Curioso che AN avesse già accettato l’esistenza di questa difficoltà 30 anni prima. Ci piace anche ricordare che nella medesima conferenza vennero presentate le prime misure, realizzate in un braccio di mare vicino a Vancouver, che mostravano inequivocabilmente l’esistenza dell’intervallo inerziale nei flussi geofisici, predetto sempre da AN. Che ci siano anni fortunati anche per la scienza? Batchelor non smise completamente di occuparsi di problemi di trasporto turbolento, ma altri erano i suoi interessi. Uno di noi ricorda personalmente lo sconforto di uno studente di PhD cinese, che all’inizio degli anni Ottanta era giunto, con diverse difficoltà, a Cambridge per studiare turbolenza con Batchelor, e si era ritrovato a occuparsi del moto di semplici microorganismi, come i flagellati, nell’acqua.

Verso le applicazioni

Le idee sviluppate da queste persone e da queste scuole hanno permesso di fondare un solido approccio alla dispersione, e di costruire modelli che possono essere applicati. La turbolenza, e quindi la dispersione, hanno aspetti universali, o generali: confidiamo di ritrovarli praticamente sempre e di poter contare su di loro. Poi ci sono gli aspetti particolari, quelli legati a come è stata generata la turbolenza, e quelli legati alla forma del “contenitore” nel quale il flusso turbolento si sviluppa.

Abbiamo già osservato che la dispersione è un processo casuale, del quale non conosciamo i dettagli, ma possiamo e vogliamo conoscere le proprietà statistiche. Questo per esempio vuol dire sapere dove vanno in media le particelle di fluido, ovvero dove sta il baricentro di una nuvoletta.

Naturalmente quando c’è molto vento, o una forte corrente, è facile immaginare dove va a finire il baricentro. Quando però il vento è poco, accadono cose strane. Per esempio, se la turbolenza è prodotta dal riscaldamento del suolo, un pennacchio di fumo va su e giù nell’atmosfera, e prevederne il comportamento non è poi immediato (molto si può imparare guardandosi intorno, per esempio se abitate in Val Padana).

Considerando la dispersione relativa abbiamo anche notato che coppie di particelle di fluido si muovono assieme per un po’, poi si separano in fretta, poi cambiano ancora regime e diffondono regolarmente, e questo dipende dalla loro distanza reciproca, ovvero dalla dimensione della nuvoletta cui appartengono. Abbiamo anche visto che tutto questo è intimamente legato alla struttura della turbolenza, alla quale peraltro non abbiamo accesso diretto attraverso le equazioni, come osservò AN, e questa è la ragione per la quale questi problemi piacciono tuttora ad alcuni fisici teorici. La dispersione è infatti una sorta di grimaldello per estorcere informazioni dalle criptiche equazioni di Navier-Stokes.

È chiaro a tutti che queste conoscenze dovrebbero servire anche per capire cosa capita agli inquinanti, e quanto si disperdono in un mondo reale. Come possiamo trasferirle in un contesto pratico? Questo quesito non è banale, e ha richiesto la mediazione di grandi personaggi, che hanno saputo coniugare il rigore fisico-matematico alla necessità di dare risposte utilizzabili. Ricordiamo Frank Pasquill e Frank A. Gifford, che negli anni Cinquanta e Sessanta del secolo scorso gettarono le basi per l’applicazione modellistica della teoria della turbolenza.

Due modelli per il trasporto turbolento

Per trattare praticamente il problema abbiamo infatti bisogno di modelli, e per questi esistono due approcci. Il primo (anche storicamente) prevede che si tratti il flusso turbolento come un fluido con proprietà diffusive determinate dalla turbolenza. Cioè lo guardiamo abbastanza da lontano, trascuriamo gli effetti su piccola scala, e scriviamo un’equazione che somiglia all’equazione per i grani browniani. Il secondo prevede che si tenti di mimare le traiettorie delle particelle; e dato che non possiamo prevederle direttamente, mimarle significherà prevedere le proprietà statistiche di un insieme di tante particelle. Per sviluppare l’uno o l’altro approccio occorre ragionare sulla necessità di conoscere le caratteristiche del flusso nel quale ci troviamo a studiare la dispersione, e quindi occorre aprirsi a un’altra disciplina. Dobbiamo infatti imparare a misurare, comprendere e prevedere le caratteristiche del flusso, quelle particolari di un certo evento (un rilascio accidentale, in condizioni meteorologiche ben definite) o di una certa situazione (la circolazione dell’aria in città). Quindi per simulare la dispersione, dobbiamo intanto conoscere le condizioni meteorologiche (od oceanografiche) dell’ambiente in cui ci poniamo.

Ovviamente ci sarà un problema di sorgenti di inquinanti: è facile (relativamente facile) definire la sorgente se avete una ciminiera isolata, un po’ meno se ne avete cento. La numerosità si affronta faticando. Ma censire le emissioni del riscaldamento di una città può essere alquanto problematico: quindi si passa dalla conoscenza analitica delle singole sorgenti ai modelli per le sorgenti.

Quando si affronta il problema del traffico la faccenda si complica enormemente: si parla ancora di un modello per le emissioni, che comprenderà tipo dei veicoli, dislocazione e andamento temporale del traffico, ecc. Naturalmente ciò che viene emesso non è inerte. Reazioni numerose e disparate avvengono tra i composti chimici che arricchiscono l’aria che respiriamo. Nuovi composti si formano, e la loro formazione è spesso legata non tanto ai valori medi di concentrazione, ma alle fluttuazioni (ai valori di picco: ecco che ritorna l’importanza della funzione di distribuzione delle particelle di fluido, più o meno larga).

Occorre imparare a trattare questa miriade di reazioni, lente e veloci, selezionando gruppi di reagenti di caratteristiche omogenee; talvolta studiandole in laboratorio e poi cercando di trasferire la conoscenza a ciò che si verifica in atmosfera o in mare. E che dire delle particelle pesanti, come gli aerosol immessi in atmosfera dalla combustione, o sollevati dal vento sull’oceano e nel deserto? Queste particelle reagiscono chimicamente, si trasformano in particelle più grosse, e per giunta cadono sotto l’effetto della gravità. Si appiccicano tra l’altro ai quadri e a altri oggetti a cui teniamo, oltre a infilarsi nei nostri polmoni, e quindi lo studio della qualità dell’ambiente si dovrà aprire a competenze relative ai beni culturali e alla salute.

Non è ancora finita perché la deposizione non è prerogativa solamente delle particelle, ma anche dei gas, che si sciolgono talvolta, talvolta reagiscono. L’eutrofizzazione dei mari chiusi o comunque poco rinnovati è dovuta all’immissione di sostanze azotate, quelle che si usano per fertilizzare le zone agricole. Molta parte viene dalle falde acquifere e dai fiumi, ma anche l’atmosfera dà il suo contributo (nel mar Baltico è stato stimato circa del 40 per cento sul totale). Qui, per valutare effetti e rimedi, occorre aprirsi alla biologia.

A proposito di interdisciplinarità, modelli di dispersione di sostanze tossiche o batteriologicamente pericolose sono tornati prepotentemente alla ribalta negli ultimi tempi. È doveroso ricordare, purtroppo, che i primi studi sulla diffusione in atmosfera, avviati con i dovuti mezzi e la necessaria profondità, furono determinati da esigenze belliche. Durante la Prima Guerra Mondiale, furono usati intensivamente gas tossici, quali l’iprite e il gas nervino. Gli esiti però dell’impiego di tale nuova arma erano talvolta incerti se non addirittura avversi (effetti collaterali) a causa dell’estrema variabilità del vento. Ciò indusse ad avviare studi intensivi sulla diffusione dei gas in atmosfera. Risalgono così a quell’epoca le prime campagne di misura in atmosfera dedicate allo studio della dispersione e i primi lavori teorici.

Scienza e politica ai confini dell’ignoranza

Siamo partiti lontano nel tempo, e lontano dalle applicazioni (anche se molti tra i signori citati hanno fatto dichiarazione di fede nella necessità delle applicazioni come motore e stimolo alla ricerca). Siamo piombati in mezzo al traffico, alle fioriture di alghe, e alle perplessità degli amministratori pubblici alle prese con il dilemma se limitare il traffico il giovedì.

La prima, radicale, risposta al problema è smettere di inquinare. Naturalmente questo è poco pratico: tuttavia si può diminuire la quantità di inquinanti prodotti, adottando politiche adeguate di riduzione delle emissioni, o dell’uso di sostanze fertilizzanti, per esempio. Si possono limitare le possibilità di utilizzo di petroliere vecchie e fragili. Si può aumentare la coscienza collettiva dell’impatto ambientale di certi comportamenti, e contare che questo porti ad autolimitarci talvolta, e a stimolare l’adozione di politiche “pensose” rispetto all’ambiente. Questo è un aspetto del problema.

Una seconda risposta riguarda la possibilità di valutare più o meno accuratamente quanto inquiniamo, e dove. La domanda è vecchia, e la scienza dà risposte parziali, come abbiamo visto, che dobbiamo utilizzare pragmaticamente. In questo contesto diventa essenziale capire dove stanno gli errori più grossi, e cosa fare per ridurne l’impatto. Vogliamo dire che il miglior modello di dispersione è inutile se non conosciamo bene come si muove l’aria o il mare, e una campagna di misure accurate perde di interesse se non siamo in grado di controllare gli scarichi dei motorini e delle auto in città.

Ecco che la ricerca riceve degli stimoli diversi, si orienta in nuove direzioni. Quali sono? Possiamo prevedere le linee di sviluppo per il futuro? Alcune risposte le troverete negli altri articoli di questo dossier. Ma il messaggio principale è che fatalmente siete transitati da un mondo a un altro, da un contesto cristallino di fisici e matematici a un ambiente fumoso e interdisciplinare. In questa necessità di contaminazione risiede la sfida per la ricerca in campo ambientale; qui si vedrà anche chi sarà capace di applicare solo acriticamente quello che altri hanno fatto e chi invece saprà far avanzare la frontiera della conoscenza (o, se preferite, far arretrare la frontiera dell’ignoranza).

BIBLIOGRAFIA

[1] SUTTON O.G., “Remarks by Session Chairman and Discussion”, Adv. Geophys., 6, 1959, pp. 437-440.

[2] NAVIER C.L.M.H., “Memoire sur les lois du movement des fluides”, Mem. Acad. Roy. Sci., 6, 1823, pp. 389-440.

[3] BATCHELOR G.K., “Geoffrey Ingram Taylor. 7 March 1886-27 June1975”, J. Fluid Mech., 173, 1986, pp. 1-14; su Taylor vedi anche BATTIMELLI G., “Storia di un uomo felice”, Sapere, 3, giugno 2000, p. 22.

[4] BATCHELOR G.K., “An unfinished dialogue with G.I. Taylor”, J. Fluid Mech., 70, 1975, pp. 625-638.

[5] HUNT J.C.R., “Lewis Fry Richardson and his contributions to mathematics, meteorology, and models of conflict”, Ann. Rev. Fluid. Mech., 30, 1998, pp. XIII-XXXVI.

[6] YAGLOM A.M., “A.N. Kolmogorov as a fluid mechanician and founder of a school in turbulence research”, Ann. Rev. Fluid. Mech., 26, 1994, pp. 1-22.

[7] MOFFAT, H.K., “G.K. Batchelor and the homogeneization of turbulence”, Ann. Rev. Fluid. Mech., 34, 2002, pp. 19-35.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here