TESTATA GIORNALISTICA ONLINE DEL CREA, ISCRIZIONE N. 76/2020 AL REGISTRO STAMPA DEL TRIBUNALE DI ROMA DEL 29/7/2020

11.1 C
Roma
martedì, 6 Dicembre 2022

Una pioggia di byte per contrastare la siccità 

Della stessa Rubrica

È possibile anticipare gli effetti dei cambiamenti climatici, prevedendo tendenze localizzate e a lungo termine? Siamo in grado ad esempio di presumere, con una certa probabilità, che si verifichi un evento siccitoso in una specifica regione nell’arco di dieci anni, e i suoi impatti sull’approvvigionamento idrico e quindi sull’agricoltura? L’Intelligenza Artificiale può senz’altro aiutare a rispondere a queste domande, analizzando le serie storiche e prevedendo le tendenze future, identificandone rischi e vulnerabilità. Scopriamo insieme come. 

In quest’avvio di secolo, fattori quali l’attività antropogenica e il cambiamento climatico hanno portato un incremento della frequenza degli eventi calamitosi, con conseguente aumento del numero di studi sui rischi ambientali. Un articolo della Cornell University ha, infatti, analizzato un database di circa 90.000 articoli peer reviewed pubblicati dal 2012, verificando che il 99,8% di essi imputa l’innalzamento della temperatura a cause antropiche.  

Tra tutti i fenomeni avversi, quelli che hanno colpito recentemente il nostro territorio sono state le ondate di caldo e i conseguenti periodi di siccità severo-estrema. La siccità inizia con una carenza nelle precipitazioni, seguita da una riduzione di umidità del suolo, per arrivare infine alla siccità idrologica e al declino agricolo vero e proprio, con successivi impatti sulle dinamiche sociali ed economiche. Questi fenomeni non si manifestano necessariamente con una continuità cronologica, dato che il ciclo idrogeologico, i processi meteo e quelli di evapotraspirazione hanno effetti non lineari e sono caratterizzati da scale spazio-temporali molto diverse. 

In principio erano le equazioni 

Bisogna considerare che con i metodi numerici classici è poco plausibile cercare di ottenere la massima precisione per le previsioni di eventi fisici complessi, mettendo cioè ordine nel caos.  

Ogni giorno, infatti, riceviamo circa 600 milioni di dati provenienti da satelliti, stazioni meteorologiche, sonde, aerei e radar che vengono utilizzati per simulare ciò che si verifica nell’atmosfera. Per l’elaborazione numerica di questi dati e nel tentativo di compensare le incertezze intrinseche dei sistemi caotici, sono necessari centri di calcolo molto sofisticati con unità di calcolo (cores) e archiviazione (storage) ad alte prestazioni (High Performance Computing).  A questi aspetti applicativi, si aggiunge un limite puramente teorico stabilito dal cosiddetto teorema matematico del “no free lunch” (ovvero non esiste pasto gratis) che ci ricorda come non possa esistere un “super algoritmo” di apprendimento universale in grado di risolvere qualunque problema previsionale con la massima accuratezza e per qualunque situazione reale. 

… poi vennero i (grandi) dati 

Fino a pochi anni fa la scienza dei dati era contraddistinta dalla loro scarsità, per cui la fase preliminare di analisi e modifica (data e feature engineering) richiedeva un campionamento preciso e omogeneo. In seguito, la grande mole di dati (big data) prodotta dal Web 2.0 (user-generated content), dai sensori (IoT), dalle transazioni bancarie e finanziarie ecc., è diventata ingestibile con i tradizionali database relazionali, strutturalmente piuttosto rigidi, rispetto ai moderni sistemi di archiviazione maggiormente flessibili (schemeless). 

Inoltre, per intrinseci limiti cognitivi sulla capacità di elaborare informazioni, non riusciamo a individuare correlazioni in grandi quantità di dati, così come non siamo in grado di fare complessi ragionamenti probabilistici. 

Oggi, invece, gli strumenti di elaborazione su cui si basano i modelli di AI (artificial intelligence) possono archiviare ed elaborare grandi quantità di dati, aiutando ad identificare correlazioni e dipendenze causali, che rimarrebbero altrimenti nascoste nei dataset. Con questi modelli si possono pertanto analizzare fenomeni complessi quali inondazioni, siccità e altri eventi meteorologici estremi, consentendo un approccio adattativo e risposte più resilienti nella fase terminale (postprocessing) di sintesi e governance delle emergenze. 

Per riuscire ad anticipare i potenziali effetti dei cambiamenti climatici è necessario prevedere tendenze localizzate e a lungo termine, come la probabilità che si verifichi un evento siccitoso in una specifica regione nell’arco di dieci anni, con impatti sull’approvvigionamento idrico e quindi sull’agricoltura. L’AI può aiutare a rispondere a queste domande, analizzando le serie storiche e prevedendo le tendenze future. 

In questo contesto l’AI può, quindi, rivelarsi un elemento essenziale per la mitigazione e la risposta efficace agli eventi naturali estremi connessi al cambiamento climatico, fornendo strumenti di supporto alle decisioni, migliorando la capacità previsionale e identificando i fattori di rischio sia in campo agricolo così come in quello industriale. 

Le macchine che apprendono 

I modelli basati sui dati, come le tecniche di apprendimento automatico (machine learning), sono molto meno avidi di risorse di calcolo rispetto agli algoritmi di fisica numerica. Anche per questa ragione l’AI si rivela spesso l’unica metodologia adottabile per i problemi con complessità computazionale “troppo elevata”.  

Per una corretta classificazione di un fenomeno fisico come la siccità è, inoltre, determinante la scelta delle variabili climatiche e dell’indice di previsione. La sfida di una previsione accurata risiede anche nella lunghezza delle serie temporali disponibili, nella scala temporale adottata e ovviamente nel modello utilizzato.  

In definitiva, sulla base di proiezioni climatiche a lungo termine e sul riconoscimento del carattere complesso della siccità (durata, frequenza, intensità, area geografica), si potrebbe identificare la probabilità di rese inferiori in funzione dei futuri episodi di siccità, favorendo lo sviluppo di sistemi di contrasto più efficaci, come la modifica dei calendari di coltivazione, l’uso di nuove varietà, la migrazione delle colture e l’utilizzo di sistemi d’irrigazione. 

La rete che pesca in profondità 

Le scale temporali che caratterizzano le fasi della siccità (almeno decennali) e la natura multivariata dei predittori (le variabili d’input utilizzate per prevedere la risposta del sistema), rendono le reti neurali profonde (deep learning) un ottimo approccio metodologico per le analisi statistiche basate sui dati (data driven).  

Questi algoritmi, infatti, offrono la possibilità di migliorare le capacità previsionali dei modelli di machine learning convenzionali, superandone i limiti intrinseci come l’overfitting (l’incapacità di generalizzare la previsione al variare dell’input) e la cosiddetta “maledizione della dimensionalità”. Semplificando quest’ultimo concetto, possiamo dire che gli algoritmi di apprendimento automatico cercano nei dataset delle regolarità per poi estrapolare delle previsioni, tali sistemi quindi non creano informazione, ma semplicemente la estraggono dai dati. Per cui, più grande è la dimensionalità del modello e maggiore sarà il rischio (o la maledizione) di sovrainterpretazione ingannevole della realtà (da qui il famoso adagio: se torturi i dati, confesseranno). In altri termini, il processo di apprendimento è influenzato sia dai classici errori numerici sia dalla qualità dei dataset, per cui eventuali distorsioni “scritte” nei dati vengono poi replicate dal modello. 

A tutto questo possiamo aggiungere che, per “seguire” la variabilità delle caratteristiche del fenomeno lungo i diversi timestep, è possibile utilizzare appositi algoritmi, che impediscono la scomparsa delle informazioni più vecchie durante l’addestramento della rete (problema noto come la scomparsa del gradiente). 

Gli algoritmi così ottenuti per la predizione sono in realtà delle black box agli occhi dell’utilizzatore, in quanto composizione di funzioni altamente non lineari, quindi di difficile interpretazione logica e matematica. Ottenere una maggiore “trasparenza” della rete neurale con l’uso della cosiddetta explainable AI (XAI, quando cioè i processi sottostanti al modello possono essere descritti e interpretati dal progettista giustificandone così le decisioni risultanti), può rivelarsi un utile strumento per capire come le tante caratteristiche oggetto di studio influenzino il modello di previsione adottato. 

Il prato infinito di Palomar 

Nell’era della fisica computazionale risulta senz’altro limitante l’adozione del solo paradigma riduzionista di investigare le parti per comprendere il tutto. La tanto decantata resilienza richiede sempre più incessantemente di avere una visione del mondo sistemico, anche grazie all’utilizzo di strumenti di analisi avanzata come l’AI, ma senza mai dimenticare come e quando utilizzarla, vista la nostra connaturata propensione a commettere il faustiano errore di risvegliare utili spiriti che poi non siamo in grado di controllare. 

Gli algoritmi “statistici” basati sui dati, siano essi semplici regressioni lineari o reti neurali profonde, si sono rivelati una valida strategia per rendere più oggettivi e affidabili i sistemi di supporto alle decisioni e limitare così gli errori umani. 

In definitiva l’adozione di soluzioni innovative e potenti fornite dall’AI può sicuramente aiutare a identificare i rischi e le vulnerabilità future, fornendo gli strumenti necessari per prendere decisioni ponderate e non soggette agli innumerevoli bias cognitivi, ovvero le tipiche distorsioni di fatti e avvenimenti che ci spingono a creare una visione soggettiva della realtà. 

Riccardo Scano 
Collaboratore Tecnico di Ricerca – CREA Centro di ricerca Politiche e Bioeconomia 

Data e software engineer, con un’insana passione per l’informatica teorica. 

#lafrase It from bit (J. A. Wheeler)

Gli ultimi articoli