Il problema dell'attribution nel cambiamento climatico in atto: uno studio con le reti neurali

Uno studio condotto nell'ambito di una tesi di laurea svolta da Paolo Racca e seguita dal sottoscritto in collaborazione con il dr. Antonello Pasini del CNR di Roma mostra come sia possibile effettuare uno studio di attribution utilizzando modelli a reti neurali al fine di evidenziare le forzanti più significative che hanno determinato le variazioni della temperatura media globale negli ultimi 160 anni. I risultati ottenuti portano a conclusioni pressoché analoghe a quelle ottenute utilizzando i modelli dinamici (con cui tale metodo non ha nulla in comune), e confermano in particolare il forte ruolo delle forzanti antropogeniche sulle variazioni di temperatura. Tra le forzanti naturali, appare pressoché nullo il contributo dei raggi cosmici, mentre appare evidente una periodicità naturale di 70 anni ben correlata con le variazioni dell'indice AMO.

La descrizione del clima è spesso condotta attraverso la modellizzazione dinamica del sistema accoppiato atmosfera-oceano; l'evoluzione simulata per tale sistema è usualmente forzata da fattori esterni, quali ad esempio le concentrazioni dei gas serra (che si possono considerare come una forzante di origine antropica) o gli effetti di un'eruzione vulcanica (una forzante naturale). Riprodurre il clima proprio di un certo periodo del passato richiede quindi una stima dell'andamento di tali forzanti nello stesso periodo. Una volta fatto questo, è possibile ripetere la simulazione nello stesso periodo ma con valori diversi per le forzanti, in modo da valutarne il peso e gli effetti, per confronto con la simulazione precedente: in questo modo si può, per esempio, attribuire l'evoluzione osservata del clima più ad una o ad un'altra forzante.

Questo lavoro, riprendendo un'idea sviluppata in Pasini et al. (2006), propone un tipo di attribution che può affiancarsi, senza sostituirla, alla modellizzazione dinamica. Scelta come indicatore dello stato del sistema clima la temperatura media globale (tale variabile è stata preferita ad altri possibili candidati, legati ad esempio alle precipitazioni o agli eventi estremi, sia per la disponibilità di una serie temporale abbastanza lunga, sia per l'oggettiva difficoltà di impiegare gli altri dati a scala globale), si cerca di ricostruirne l'andamento, tra il 1850 e il 2007, a partire dagli andamenti delle forzanti naturali e antropogeniche. Tra le forzanti antropogeniche, si è voluto tener conto non soltanto del biossido di carbonio, ma anche dei più rilevanti tra gli altri gas serra: le loro concentrazioni sono state integrate nell'elaborazione di un indice di radiative forcing complessivo, conveniente dal punto di vista operativo ma anche sicamente significativo in vista dell'analisi.

Dato che le serie storiche impiegate sono costituite da dati annuali, si cerca una relazione che leghi le forzanti di un certo anno (l'input) alla temperatura media globale (il target) dello stesso anno. Prove ripetute, utilizzando combinazioni diverse di forzanti, consentono di stimare il ruolo di una certa forzante nella ricostruzione del target. Tale regressione è portata avanti mediante l'impiego di reti neurali feed-forward, algoritmi in grado di apprendere una eventuale relazione, anche non lineare, che lega le coppie input-target scelte come “training set”. L'obiettivo dell'apprendimento è che la rete riesca ad astrarre, dal training set, la relazione generale che vale non solo per il training set, ma per l'intera popolazione da cui esso è tratto. 

Lo schema del lavoro può essere così riassunto. Per prima cosa, si è preparato un nuovo dataset, più completo e aggiornato rispetto a quello di Pasini et al. (2006). Le serie storiche partono in generale dal 1850, alcune dal 1866. Si tratta, cioè, di 158 o 142 dati per ciascuna serie. È per far fronte all'esiguo numero di dati che si è adottata, come in Pasini et al. (2006), la modalità all-frame per l'utilizzo delle reti neurali. Questa, a dire il vero, è stata arricchita in questa tesi di un criterio di early stopping, come spesso si fa in letteratura; inoltre, anche per ragioni pratiche di applicazione del criterio, si è stabilito di fare delle simulazioni di ensemble, cui si fa riferimento come a EAF (Ensemble All-Frame). Questa modalità, che è nata come semplice sviluppo dell'all-frame classico, conferisce, in realtà, alla regressione un significato lievemente diverso, soprattutto per chi ha familiarità con l'uso delle reti neurali.


Ricostruzione della Total Solar Irradiance (TSI), Lean (2000) con background da Wang et al. (2005). Scala PMOD Absolute scale. Essa è stata ottenuta mediante regressione multipla di una serie temporale di TSI con serie di
sunspot e faculae. Nel lavoro di Lean, si è sovrapposta, alle variazioni di periodo undecennale, una componente di background; essa deriva dalla modellizzazione del flusso magnetico solare totale, in risposta alla variabilità dei campi magnetici (serie di sunspot) mediante un solar flux transport model.

 Ricostruzione della Stratospheric Aerosol Optical Thickness (550 nm), Sato et al. (1993), rappresentativa dell'attività vulcanica. I dati sono presenti alla pagina data.giss.nasa.gov/modelforce/strataer/tau_line.txt (aggiornati al 1999). Gli autori hanno diviso il periodo in 4 sottoperiodi, caratterizzati da diverse disponibilità di informazioni. Nel primo (1850-1882), non avendo a disposizione dati per stimare l'estinzione ottica, sono state effettuate stime da evidenze essenzialmente di tipo vulcanologico. Nel secondo (1883-1959) ci sono alcune serie con misurazioni di estinzione ottica, principalmente alle medie latitudini, e nell'emisfero nord. Nel terzo (1960-1978) ci sono diverse serie di misure condotte in diversi siti anche nell'emisfero sud. Nell'ultimo (1979-1999) c'è anche il contributo delle osservazioni satellitari. Infine, dato che nel periodo 1999-2007 (non coperto da questa serie temporale) non si sono registrate eruzioni rilevanti, dal 2000 al 2007 la serie è stata articialmente prolungata con degli zeri.

I dati provengono dal World Neutron Monitor Network a partire dal 1951, mentre sono una ricostruzione per il periodo precedente, condotta con un metodo spiegato in Usoskin et al. (2002), aggiornato come descritto in Usoskin et al. (2005) e in Alanko-Huotari et al. (2007). Tale metodo prevede il calcolo del flusso magnetico solare a partire dal numero di sunspot osservati, e l'utilizzo di quello in un modello a simmetria sferica e quasi statico per l'eliosfera; questo modello prevede simulazioni stocastiche per la soluzione numerica dell'equazione di Parker per il trasporto, da cui si può derivare una stima dell'intensità di raggi cosmici. I dati sono espressi come count rate per un neutron monitor standard (1-NM64 al livello del mare), posizionato al polo 
(Pc < 0.8 GV).

Emissioni globali di solfati, espresse in Gg annuali di zolfo. Questa serie temporale, considerata molto completa anche sotto il profilo della risoluzione spaziale, è quella di ASL and Associates (ASL and Associates, (1997); Lefohn et al., (1999)), e va dal 1850 al 1990. Essa è stata il punto di partenza per la serie di Stern, che è qui presentata ed arriva fino al 2000 (Stern, (2005)). La sua ricerca si è svolta sommando i dati di emissione pubblicati dai vari Paesi, quando presenti; in caso contrario, si sono rese indispensabili delle metodiche di interpolazione ed estrapolazione, eseguite spesso Paese per Paese, che tenessero conto di una serie di indicatori econometrici. D.I. Stern, Global sulfur emissions from 1850 to 2000, Chemosphere 58 (2005) 163-175.

 I dati di partenza sono stati presi dal sito data.giss.nasa.gov/modelforce/ghgases e sono le forzanti di un modello della GISS (Hansen et al., 2007), aggiornati al 2008. Dal momento che, al fine di essere dati in pasto alla rete neurale, i segnali vanno normalizzati tra 0 e 1, risulta chiaro che essi non conteranno le unità di misura ma, piuttosto, la forma del segnale, che risulterà molto simile tra molti gas serra, tanto da renderli verosimilmente intercambiabili. Al fine di unificare tutte queste informazioni in modo ordinato, compatto e fisicamente coerente, è stata fatta una somma pesata dei segnali, attraverso l'introduzione della grandezza radiative forcing
(usata anche dall'IPCC nei suoi report), che per i gas può essere definita come la variazione netta di irradianza (entrante meno uscente), misurata alla tropopausa, a seguito di una variazione nella concentrazione del gas. In particolare, la grandezza visualizzata in figura è la radiative efficiency, ossia il rapporto tra il radiative forcing provocato da una piccola variazione nella concentrazione del gas, e la variazione stessa, espressa in Wm-2ppb-1, con opportune correzioni. Si può notare come il contributo dei MPTGs (Montreal Protocol Trace Gases) & OTGs (Other Trace Gases) sia quasi confrontabile, negli ultimi anni, a quello del metano.

Ricostruzione del Southern Oscillation Index (SOI) dal 1866 al 2008. Il SOI può essere considerato come un indicatore dell'intensità della Walker circulation (Walker, 1924): va sotto questo nome il pattern di circolazione atmosferica per cui, in condizioni normali, esiste una risalita di aria sopra l'Indonesia (condizioni di bassa pressione), una discesa di aria sul Pacifico Orientale (condizioni di alta pressione), e una prevalenza di venti alisei (da Oriente) sul Pacifico, nei pressi dell'Equatore. Il SOI è un indice mensile definito (si veda www.cru.uea.ac.uk/cru/info/enso/) sulla base della differenza tra la pressione media a livello del mare misurata a Tahiti (Indonesia) ed a Darwin (Australia), normalizzate con la deviazione standard. In pratica, se la circolazione di Walker è particolarmente intensa, il 
SOI è positivo e indica un possibile evento di La Niña, mentre se la circolazione di Walker si indebolisce o addirittura si inverte, il SOI diventa negativo, e si è di fronte ad un episodio di El Niño. Per cui, il SOI indica la fase di ENSO (El Niño -Southern Oscillation).

Indice della Pacic Decadal Oscillation (PDO), con dati tratti dal
dataset ERSST (Extended Reconstructed
Sea Surface Temperature), costruito usando i dati di SST raggruppati nell'International
Comprehensive Ocean-Atmosphere Data Set (ICOADS)
(si veda il sito ftp.ncdc.noaa.gov/pub/data/ersst-v2/pdo.1854.latest.ts). La PDO è un'oscillazione nel sistema atmosfera-oceano, che si osserva nell'oceano Pacifico, come ENSO. Con ENSO esistono, infatti, delle affinità, anche se i due fenomeni sono, nei fatti, molto diversi: dal punto di vista temporale, prima di tutto, dal momento che la PDO ha fasi che possono durare 20-30 anni (non 6-18 mesi, come El Niño); e, in secondo luogo, sotto il profilo spaziale, dato che per la PDO gli effetti principali si situano nel Pacifico Settentrionale, e non nella zona tropicale. Nella fase fredda si osservano un cuscino di acqua più fredda (e un livello delle acque inferiore) nel Pacifico orientale, vicino all'Equatore, e un'area a forma di U di acqua più calda (e un livello delle acque superiore) che copre il Pacifico Occidentale, dal Nord fino all'Equatore. Nella fase calda il pattern si inverte.

 Indice  AMO  (Atlantic  Multidecadal  Oscillation),   dal  1856  al 2007.     Tale  serie  presenta  una  correlazione  lineare  con il target pari a 0.660 ed un correlation ratio pari a 0.715. I dati sono stati tratti da http://www.esrl.noaa.gov/psd/data/correlation/amon.us.long.mean.data (unsmoothed and undetrended version). L'indice AMO è stato definito da Kerr (2000). La periodicità di circa 70 anni dell'indice sembrerebbe essere un ciclo naturale mediato dall'interazione atmosfera-oceano, e non è riproducibile con un semplice modello climatico o oceanico, ma soltanto con un sistema accoppiato, che permetta di evidenziare le fluttuazioni nell'intensità della circolazione termoalina. All'interno di questo lavoro, l'indice 
AMO entra in modo quasi fortuito, ma la periodicità ad esso associata, a dire il vero, emerge dai dati. Molti studi ne hanno dimostrato le teleconnessioni con altri indici e la sua valenza globale. In effetti ci si potrebbe vedere un conflitto, in quanto il target è esso stesso un'anomalia di temperatura superciale, se pur a livello globale. Qui, AMO viene interpretato, tra la variabilità interna, come la media di temperature superciali di una zona limitata del globo, il Nord Atlantico.
 
 

Tentando di ricostruire la serie di temperatura mediante diverse combinazioni degli input, è apparsa subito evidente l'impossibilità di farlo a partire soltanto dagli input naturali, incapaci di spiegare il trend in salita degli ultimi decenni. Si è reso necessario affiancare ad essi delle forzanti antropogeniche, per questo fine: la notizia magari non è straordinaria per gli addetti ai lavori, ma è comunque di rilievo, data l'attuale discussione mediatica sulla fondatezza delle teorie sul cambiamento climatico. Sono evidenze che emergevano già in Pasini et al. (2006), ma che questo lavoro conferma, nonostante l'impiego di serie storiche nel frattempo corrette (come per i dati di emissioni di solfati e di Stratospheric Aerosol Optical Thickness) e di altre ricostruzioni, anche vistosamente diverse (come per la Total Solar Irradiance).

 

 Tentativo di ricostruzione (linea rossa) dell'andamento della temperatura media globale (linea nera) attraverso dati di emissione di solfati, concentrazione di CO2, radiative forcing complessivo degli altri gas serra. L'andamento medio viene percepito e riprodotto, anche se in maniera imprecisa, mentre risulta ridottissima la variabilità interannuale spiegata.

 Tentativo di ricostruzione (linea rossa) dell'andamento della temperatura media globale (linea nera) a partire dai dati di PDO e SOI. Emerge una sostanziale incapacità di cogliere la tendenza della serie temporale delle temperature data la stazionarietà delle serie in input. Quanto alla variabilità che emerge, pare in qualche caso di poterla ricondurre a quella della serie del target, soprattuto nel succedersi di picchi positivi e negativi.

 Tentativo di ricostruzione (linea rossa) dell'andamento della temperatura media globale (linea nera) a partire dai dati di Total Solar Irradiance, Stratospheric Optical Thickness, PDO e SOI. In questo grafico si riconoscono alcuni dettagli osservabili già nella figura precedente, ma appare un grande contributo derivante dalla serie di irradianza solare, con la tipica periodicità undecennale. Nemmeno in questo caso, peraltro, il risultato della ricostruzione è soddisfacente: pare che, senza input di tipo antropogenico, sia impossibile conferire alla serie di temperatura l'andamento in salita che
la caratterizza.

Tentativo di ricostruzione (linea rossa) dell'andamento della temperatura media globale (linea nera) a partire dai dati di Total Solar Irradiance, Stratospheric Optical Thickness, emissioni di solfati, indice di radiative forcing complessivo per i gas serra. La ricostruzione appare notevolmente migliorata rispetto a quella in cui si erano tenuti in conto solo gli input antropogenici; il miglioramento è particolarmente evidente negli anni dopo il 1960, in corrispondenza dei quali già la figura che comprendeva solo le forzanti naturali mostrava ad occhio una buona aderenza nelle oscillazioni del target. Negli anni precedenti, invece, la performance sulla variabilità interannuale appare piuttosto misera. Inoltre la ricostruzione presenta una pendenza pressochè nulla fino al 1900, ed una pendenza lieve dal 1900 al 1950, ma è del tutto insensibile ai brevi trend di aumento-diminuzione che, nel target, sono ben evidenziabili. L'indice di Pearson tra ricostruzione e target vale 0.859, mentre lo scarto quadratico medio vale 0.0168 K2.

 
Tentativo di ricostruzione (linea rossa) dell'andamento della temperatura media globale (linea nera) a partire dai dati di Total Solar Irradiance, Stratospheric Optical Thickness, emissioni di solfati, indice di radiative forcing complessivo per i gas serra e intensità di raggi cosmici. L'osservazione comparata del grafico con quello della figura precedente rende difficile poter dire, ad occhio, quale dei due sia il migliore, poichè esistono anni in cui la performance è migliore per l'uno e altri in cui capita l'opposto. L'indice di Pearson vale 0.868 e lo scarto quadratico medio vale 0.0158 K2. La statistica dice che esiste, in effetti, un miglioramento dovuto all'impiego della serie di intensità di raggi cosmici, tuttavia tale miglioramento è veramente molto piccolo. Per questo motivo, anche tenendo conto dell'elevato grado di anticorrelazione lineare con la serie di irradianza solare, la serie dei raggi cosmici non sarà più considerata di qui in avanti nello studio. In effetti, si potrebbe valutare la possibilità di usare, al posto di questa serie, quella di CRII (Cosmic Rays Induced Ionization), che secondo alcuni sarebbe la quantità più direttemente legata alle dinamiche climatiche, tuttavia risulta più difficile ricostruirne i valori sull'intero periodo analizzato.

 Ensemble all-frame (media d'ensemble in azzurro, singole corse in rosso) per la ricostruzione dell'andamento della temperatura media globale (linea nera) a partire dai dati di Total Solar Irradiance, Stratospheric Optical Thickness, emissioni di solfati, indice di radiative forcing complessivo per i gas serra, PDO, SOI e AMO. L'indice di Pearson vale in questo caso 0.948, mentre 
lo scarto quadratico medio vale 0.0066 K2. Una performance migliore, dunque, spiegabile col fatto che la rete, avendo già a disposizione tutte le informazioni fin dall'inizio, ha modo di processarle non linearmente, quindi con maggior libertà.

Analizzando la differenza tra la serie ricostruita e quella osservata sperimentalmente, si è trovata una periodicità di circa 70 anni. La letteratura scientifica recente mostra l'esistenza di un indice climatico con la stessa periodicità: si tratta dell'indice AMO, una media delle temperature superciali del Nord Atlantico. L'introduzione di tale indice ha consentito un notevole miglioramento nella ricostruzione delle temperature medie globali, suggerendo che le dinamiche che si attuano in quell'area dell'oceano possano avere un ruolo di grande rilievo anche sotto il profilo delle teleconnessioni con l'intero Pianeta. Il ricorso ad un metodo di analisi non lineare che, a differenza di quanto avviene in un modello climatico tradizionale, prescinde dalla risoluzione esplicita di equazioni dinamiche, prova che le variazioni della media globale di temperatura osservate negli ultimi 150 anni possono essere spiegate dagli andamenti delle forzanti naturali e antropogeniche nel trend generale, e dagli indici di variabilità naturale nelle periodicità residue. In particolare, si è vericato che, senza contemplare le forzanti antropiche nell'analisi, il riscaldamento dell'ultimo trentennio non può essere ricostruito. Il metodo, inoltre, ha permesso di rilevare un sensibile (anche se discontinuo) contributo da parte delle eruzioni vulcaniche, mentre ha, per lo meno, ridimensionato le aspettative relative al contributo dei raggi cosmici, che nell'analisi si sono rivelati pressochè ininfluenti. 

Una parte consistente del lavoro è stata diretta a conoscere meglio il modello utilizzato, per rispondere da un lato alla comune critica per cui non si riesca mai a sapere quali calcoli si sviluppino all'interno di una rete neurale, dall'altra per approfondire il suo comportamento in situazioni del passato. Questo ha permesso di mettere in luce alcune difficoltà nell'apprendere, ad esempio, il ruolo delle emissioni di solfati (nel caso si includano, tra gli input, gli indici di variabilità naturale): difficoltà, questa, che potrebbe essere legata all'aver tralasciato un'altra possibile forzante antropogenica dall'effetto opposto, rappresentata dalle concentrazioni storiche di black carbon in atmosfera (dati che è difficoltoso stimare). Grazie allo stesso tipo di indagine è stato possibile evidenziare come, nell'ambito della variabilità naturale, il peso maggiore, in termini di inuenza sull'output, sia detenuto dagli indici AMO e SOI, mentre appare abbastanza ridimensionata la connessione tra la PDO e le oscillazioni della temperatura.

 
Indietro (pagina dei pensieri)