Socials

Share us:


Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Delicious

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Digg

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in FaceBook

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Google Bookmarks

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Stumbleupon

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Technorati

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Twitter

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Twitter

Lo sviluppo della previsione numerica meteo

Dopo aver letto l'interessantissimo contributo del Prof. Montella sullo sviluppo del calcolo parallelo e del suo utilizzo per le previsioni meteo è il momento di capire cosa c'è dietro un modello di circolazione atmosferico e cosa lo rende capace di prevedere eventi meteo, ben sapendo di non riuscire a raggiungere gli ottimi livelli di scrittura che Montella ha mostrato.

Il presupposto di base è che la gran parte dei moti atmosferici possono essere descritti tramite equazioni "prognostiche", ovvero capaci di descrivere l'andamento temporale di determinate variabili: le basilari per lo sviluppo di un modello atmosferico sono quelle per il moto orizzontale, per la variazione verticale della pressione, dell'energia termodinamica e quella di continuità.

Identificare queste equazioni è un buon inizio, ma non basta: servono le condizioni iniziali, grazie alle quali può essere descritto un determinato stato dell'atmosfera, e la discretizzazione delle equazioni, senza la quale sarebbe impossibile utilizzare macchine di calcolo per svolgere le equazioni necessarie (un computer non ragione per infinitesimi, ma per differenze finite).

Le prime possono essere fornite da osservazioni che vengono adattate ad una griglia uniforme utile al calcolatore grazie all'utilizzo di altri modelli di base. Per le seconde, invece, c'è da considerare che, volendo approssimare troppo bene gli infinitesimi con passi temporali discreti troppo piccoli, il tempo di calcolo tenderebbe all'infinito, rendendo inutili il processo di previsione che rischierebbe di prevedere qualcosa che è già avvenuto. Al contrario, andando ad aumentare a dismisura gli step temporali, le macchine non riuscirebbero più a risolvere in maniera accurata le equazioni, facendo divergere il modello che non giungerebbe a termine. Il giusto compromesso è dunque legato a vari fattori, tra i quali la potenza di calcolo della macchina è uno di quelli non intrinseci al modello, mentre la risoluzione della griglia ed il tipo di moti da tenere in considerazione (solo idrostatici o anche turbolenti ad esempio) sono quelli dai quali non si può prescindere.

È possibile schematizzare la creazione di un modello atmosferico ripercorrendo (in maniera molto più semplicistica di quanto fatto in realtà all'epoca) il lavoro di Eady e Cheany che negli anni '50 del secolo scorso svilupparono per primi dei modelli numerici di circolazione generale.

Le condizioni iniziali vedrebbero la Terra in rotazione che inizia ad essere riscaldata dal Sole, ma senza ancora nessuna differenza di temperatura tra poli ed equatore. Il riscaldamento differenziale prodotto dai raggi solari farebbe espandere l'aria calda equatoriale e comprimere quella fredda ai poli, innescando un moto latitudinale inteso a riequilibrare la situazione. La rotazione terrestre farebbe deviare verso ovest i venti così creati e, parallelamente, la bassa pressione creatasi all'equatore darebbe origine alla sua cintura di nuvole e piogge facilmente visibili in ogni immagine satellitare. A questo punto le due celle convettive createsi (una verso nord e una verso sud) sarebbero troppo poco efficienti e si disgregherebbero in sei celle totali (tre per emisfero - dalle basse alle alte latitudini Hadley, Ferrel e Polare) giungendo al punto finale, ovvero quello del'atmosfera nella quale viviamo, con la consuete basse ed alte pressioni che si alternano alle nostre latitudine grazie alle onde barocliniche.

In realtà i modelli globali simili a quello appena descritto sono di ben scarsa utilità per le previsioni meteo, potendo essi prevedere solo condizioni climatiche medie e non perturbazioni giornaliere su scale di pochi chilometri. Per questo motivo nel corso degli anni sono stati sviluppati modelli via via più sofisticati, fino ad arrivare agli attuali modelli regionali (o a mesoscala) che possono essere di tipo idrostatico o non idrostatico. Questi ultimi sono in grado di risolvere anche le equazioni dei moti turbolenti e sono quindi quelli che si prestano alla previsione ad alta risoluzione, in genere fino al chilometro o poco sotto.

Nonostante l'alta risoluzione permessa oggigiorno dalle potenze di calcolo via via maggiori è però impossibile poter sviluppare tutte le equazioni presenti nel modello perché per alcuni fenomeni, come ad esempio la formazione delle nubi e della precipitazione, le scale spaziali sono talmente piccole da andare nell'ordine di grandezza delle dimensioni delle molecole, risoluzione impossibile da raggiungere per un modello che si propone lo sviluppo delle condizioni atmosferiche su regioni di centinaia di chilometri. Per questo motivo i cosiddetti processi di sottogriglia (come la microfisica delle nubi, ma in alcuni casi anche le convezione) vengono "parametrizzati", ovvero descritti tramite altre variabili ricavabili in maniera esplicita da altre equazioni all'interno del modello stesso.

Il sogno di utilizzare potenze di calcolo sempre maggiori per migliorare l'estensione della previsione è però da considerare irraggiungibile, almeno utilizzando le equazioni conosciute ad oggi, essendo il problema non di calcolo, ma interno alla natura caotica dell'atmosfera. Lorenz dimostrò questa teoria in una serie di articoli pubblicati tra il 1963 ed il 1968 nei quali impotizzava di inizializzare un modello "perfetto" con delle osservazioni "perfette". Fece quindi partire simulazioni diverse introducendo perturbazioni praticamente trascurabili nelle condizioni iniziali, dimostrando che dopo due settimane i risultati dei vari modelli diventavano totalmente scorrelati tra loro.

Al momento attuale presso il Centro Campano di Monitoraggio e Modellistica Marina ed Atmosferica (CCMMMA) dell'Università Parthenope è utilizzato uno dei modelli meteo più affermati nel mondo della ricerca, ovvero il Weather Research and Forecast (WRF). Il modello "base" prevede una risoluzione orizzontale di 3 km, mentre quello più avanzato arriva ad 1 km. Arrivare a queste risoluzioni a partire da dati di partenza dei modelli globali accoppiati alle osservazioni con risoluzioni di circa 30 km sarebbe impensabile e per questo motivo viene utilizzata una tecnica detta di nesting, nel quale aree via via meno estese, ma sempre più risolute, vengono simulate in cascata. Questo processo fa sì che nella regione a risoluzione più scarsa si usino come inizializzazione proprio i modelli globali, mentre procedendo col nesting il dominio meno risoluto funge da input per il dominio più risoluto ad esso successivo.

Nel caso del CCMMMA i domini dei due WRF hanno risoluzione di 27, 9 e 3 km in un caso e 25, 5 e 1 km nell'altro. A queste risoluzioni è anche importantissimo avere alla base una topografia ed una descrizione del terreno quanto più accurate possibili per evitare errori grossolani nella previsione. Nel caso della Campania, ad esempio, si nota una differenza tra i due modelli per le perturbazioni provenienti da sud-est, quelle, cioè, che prima di arrivare su Napoli passano per la Costiera Sorrentina: il modello a 3 km prevede in genere pioggia su Napoli, sbagliando in alcuni casi, mentre quello ad 1 km generalmente prevede la pioggia sulla Costiera. Ciò è dovuto all'effetto dei rilievi della Costiera che fanno innalzare l'aria umida in arriva, scaricando l'acqua su di essi: a 3 km la zona montuosa è poco caratterizzata, mentre a 1 km lo è sufficienza da prevedere il giusto andamento.

Nonostante le egrege risorse computazionali di BlackJeans, il cluster dedicato alla modellistica del CCMMMA, simulare 24 ore con il modello ad 1 km impiega circa 3 ore ed è quindi stata adottata la soluzione di fermare questo tipo di simulazione al primo giorno: il numero di celle da simulare è davvero troppo elevato per programmare una previsione a lungo termine operazionale.

Nello stesso tempo il modello a 3 km riesce però a simulare 6 giorni e quindi sul nostro sito sono disponibili sempre previsioni a lungo termine a buona risoluzione aggiornate quattro volte al giorno (ovvero alle 00, 06, 12, 18 UTC, gli orari nei quali il modello globale di inizializzazione fornisce gli output) in aggiunta a quelle ad altissima risoluzione per le prime 24 ore seguenti.