COMPUTATIONAL SCIENCE

Terremoti, l’intelligenza artificiale chiave di volta?

Il sisma in Turchia riaccende il dibattito sull’uso delle tecnologie di apprendimento automatico per prevedere eventi estremi. I ricercatori della Brown University e del Massachusetts Institute of Technology in uno studio hanno tracciato la roadmap: l’uso di algoritmi statistici in mix con una potente tecnica di machine learning addestrata a prevedere scenari consente di bypassare l’annoso problema della carenza di dati storici

Pubblicato il 07 Feb 2023

Schermata 2023-02-07 alle 13.58.41

La “scienza intelligente” può davvero essere d’aiuto nella previsione di disastri causati da eventi estremi (terremoti, pandemie o “onde anomale” che potrebbero distruggere le strutture costiere)?  Alla luce del sisma in Turchia, uno dei maggiori drammi degli ultimi decenni, torna d’attualità il dibattito sull’apporto previsionale della modellazione computazionale: una branca della scienza che, secondo la visione comune, si trova davanti a una sfida quasi insormontabile. Statisticamente parlando, infatti, gli eventi estremi sono così rari che non ci sono abbastanza dati su di essi per utilizzare modelli predittivi capaci di prevedere con precisione quando accadranno. Eppure, un team di ricercatori della Brown University e del Massachusetts Institute of Technology è convinto che questa convinzione possa essere scardinata. 

L’apporto cruciale dell’apprendimento automatico

In un nuovo studio pubblicato su Nature Computational Science, gli scienziati descrivono come hanno combinato algoritmi statistici – che necessitano di meno dati per fare previsioni accurate ed efficienti – con una potente tecnica di apprendimento automatico sviluppata alla Brown e l’hanno addestrata a prevedere scenari, probabilità e talvolta anche il cronologia di eventi rari nonostante la mancanza di documentazione storica su di essi.
In tal modo, il team di ricerca ha scoperto che questo nuovo framework può fornire un modo per aggirare la necessità di enormi quantità di dati che sono tradizionalmente necessari per questo tipo di calcoli, riducendo invece essenzialmente la grande sfida di prevedere eventi rari a una questione di qualità oltre la quantità.

WEBINAR
4 Aprile 2024 - 12:00
AI Generativa e Data Protection: scopri come implementare strategie aziendali efficaci
Metaverso
Privacy/Compliance

Ridurre il numero di dati necessari per la previsione

“Uno scoppio di una pandemia come il Covid-19, un disastro ambientale nel Golfo del Messico, un terremoto, gli enormi incendi in California, un’onda di 30 metri che capovolge una nave sono eventi rari – spiega George Karniadakis, professore di matematica applicata e ingegneria alla Brown e autore dello studio -. E proprio poiché sono rari, non abbiamo su di essi abbastanza dati storici per prevederli nel futuro. La domanda che allora affrontiamo nel documento è: quali sono i migliori dati che possiamo utilizzare per ridurre al minimo il numero di informazioni di cui abbiamo bisogno?”.
I ricercatori hanno trovato la risposta in una tecnica di campionamento sequenziale chiamata apprendimento attivo. Questi tipi di algoritmi statistici non sono solo in grado di analizzare i dati immessi in essi, ma, cosa più importante, possono imparare dalle informazioni per etichettare nuovi punti dati rilevanti che sono ugualmente o addirittura più importanti per il risultato che viene calcolato. Al livello più elementare, consentono di fare di più con meno.

Il modello DeepOnet

Questo è fondamentale per il modello di apprendimento automatico utilizzato dai ricercatori nello studio. Chiamato DeepOnet, il modello è un tipo di rete neurale artificiale, che utilizza nodi interconnessi in strati successivi che imitano approssimativamente le connessioni stabilite dai neuroni nel cervello umano.
DeepOnet
è noto come “operatore neurale profondo”. È più avanzato e potente delle tipiche reti neurali artificiali perché in realtà sono due reti neurali in una, che elaborano i dati in due reti parallele. Ciò gli consente di analizzare insiemi enormi di dati e scenari a una velocità vertiginosa per poi fornire insiemi di probabilità altrettanto enormi una volta appreso ciò che sta cercando.
Il collo di bottiglia di questo potente strumento, soprattutto per quanto riguarda eventi rari, è che gli operatori neurali profondi hanno bisogno di tonnellate di dati per essere addestrati per eseguire calcoli efficaci e accurati.

Nel documento, il team di ricerca mostra che, combinato con tecniche di apprendimento attivo, il modello DeepOnet può essere addestrato su quali parametri o precursori cercare che portino all’evento disastroso che qualcuno sta analizzando, anche quando non ci sono molti punti dati.

Cercare in modo proattivo gli eventi significativi

“La spinta non è prendere tutti i dati possibili e inserirli nel sistema, ma cercare in modo proattivo eventi che daranno origine agli eventi rari“, chiarisce Karniadakis. “Potremmo non avere molti esempi dell’evento reale, ma potremmo avere quei precursori. Attraverso la matematica, li identifichiamo, che insieme a eventi reali ci aiuteranno ad addestrare questo operatore affamato di dati”. I ricercatori hanno così scoperto che il loro nuovo metodo supera gli sforzi di modellazione più tradizionali e ritengono che presenti un quadro in grado di scoprire e prevedere in modo efficiente tutti i tipi di eventi rari.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articolo 1 di 4