La competizione di previsione VIEWS 2023/2024 è stata lanciata con l’obiettivo di far progredire la ricerca sulla previsione delle vittime nei conflitti armati tenendo conto dell’incertezza. Tredici team di partecipanti hanno sviluppato 23 modelli avanzati di machine learning e approcci statistici per prevedere il numero di vittime nei conflitti armati di stato secondo le definizioni del UCDP.

La competizione mira a migliorare la capacità di anticipare e gestire le crisi umanitarie supportando i decisori politici nella preparazione, mitigazione e persino prevenzione di tali crisi. I sistemi di early warning esistenti forniscono previsioni per il risultato più probabile sotto forma di previsioni puntiformi, ma sono meno utili per le azioni politiche necessarie in caso di scoppio di nuovi conflitti o escalation improvvisa della violenza esistente. Le previsioni con distribuzioni di probabilità, d’altra parte, possono segnalare sia quale sarà l’esito più probabile che eventuali rischi futuri bassi ma allarmanti.

I modelli offrono una combinazione entusiasmante di previsioni a livello di paese-mese con copertura globale e previsioni a livello di PRIO-GRID-mese per Africa e Medio Oriente. Tutte le previsioni sono state raccolte in percentili dal team VIEWS ed sono disponibili per l’esplorazione sul nuovo dashboard VIEWS Prediction Challenge.

A partire da agosto 2024, il dashboard sarà ampliato con valutazioni continue delle previsioni dei partecipanti, valutate rispetto ai rilasci mensili dei dati sui conflitti registrati dal UCDP Candidate Events dataset[2]. Verranno inoltre visualizzate le valutazioni delle previsioni per il test set storico 2018-2023, basato sui dataset annuali UCDP GED.

UNITO transformer

La prevenzione dei conflitti e delle guerre è una questione cruciale per la stabilità globale e il benessere delle società. Il lavoro di Luca Macis, Marco Tagliapietra, Elena Siletti e Paola Pisano si inserisce in questo contesto, proponendo approcci innovativi per la previsione e la gestione dei conflitti attraverso modelli analitici e metodologie avanzate.

Il modello UNITO_transformer è una struttura avanzata di previsione temporale che integra un encoder basato su attenzione, un decoder temporale e connessioni residue tra input e output per preservare l’attivazione lineare. Questa architettura è progettata per affrontare le sfide tipiche della previsione temporale, come la gestione delle dipendenze a lungo termine e la complessità computazionale.

L’encoder si basa su un meccanismo di attenzione che consente al modello di focalizzarsi su parti specifiche della sequenza di input, migliorando la capacità di catturare relazioni temporali e strutturali nei dati. Il decoder temporale, d’altra parte, integra informazioni sia dal meccanismo di attenzione che dai target passati e dai covariati futuri attraverso una connessione residua. Questo approccio consente di generare output in modo incrementale, facilitando la previsione su orizzonti temporali variabili.

Per addestrare il modello, viene utilizzata una funzione di perdita di Negative Log Likelihood (NLL), ottimizzando la previsione probabilistica sotto l’assunzione di una distribuzione binomiale negativa. Questo approccio è fondamentale per migliorare l’accuratezza delle previsioni, poiché consente al modello di apprendere non solo i valori attesi, ma anche l’incertezza associata a ciascuna previsione (Macis et al., 2024).

Fin dall’inizio della sfida, gli organizzatori hanno reso disponibili alcuni modelli di benchmark semplici per fornire un contesto per le metriche di valutazione e una base di confronto durante la fase di sviluppo del modello. Seguendo le raccomandazioni del comitato di valutazione, sono stati aggiunti ulteriori modelli di benchmark, ma non sono stati utilizzati per la valutazione finale poiché non erano stati divulgati ai partecipanti all’inizio. Tuttavia, questi modelli post-hoc sono utili per scopi informativi, fungendo da semplici euristiche per facilitare il confronto tra i modelli.

Modelli di Benchmark

  • VIEWS_bm_exactly_zero (cm/pgm): Questo modello prevede zero fatalità per tutti i mesi dei paesi o dei mesi PRIO-GRID.
  • VIEWS_bm_last_historical (cm/pgm): Utilizza l’ultimo valore osservato come previsione puntuale per ogni paese o cella di griglia, generando una distribuzione di probabilità tramite la distribuzione di Poisson.
  • VIEWS_bm_ph_conflictology_country12 (cm): Utilizza i valori degli ultimi 12 mesi per il paese in questione come distribuzione di previsione.
  • VIEWS_bm_ph_conflictology_neighbors12 (pgm): Simile al precedente, ma considera anche i valori delle celle di griglia immediate.
  • VIEWS_bm_conflictology_bootstrap240 (cm): Un modello di bootstrap che estrae campioni casuali dagli ultimi 240 mesi, con una distribuzione di previsione simile per tutti i paesi.Innovazione e Contributo

È importante notare che il contributo di Becker & Drauz (2024) si basa sulla stessa logica dei benchmark di conflittualità sin dall’apertura della sfida di previsione, prima che gli organizzatori decidessero di aggiungere questo benchmark. Questo sottolinea che sono stati i primi partecipanti ad applicare questa idea nel contesto della sfida e nel nostro campo. Se questo benchmark risulterà efficace, il loro modello avrà probabilmente buoni risultati e sarà debitamente accreditato per la loro innovazione.

In sintesi, il modello UNITO_transformer rappresenta un avanzamento significativo nel campo della previsione temporale, combinando tecniche moderne di machine learning con metodologie consolidate per affrontare le sfide della previsione in contesti complessi e variabili.

Pannello di Controllo : https://predcomp.viewsforecasting.org

Source: Luca Macis, Marco Tagliapietra, Elena Siletti, and Paola Pisano.Predicting Fatalities with Pre-Trained Temporal Transformers: A Time Series Regression Approach, June 2024.