Investigadors de Barcelona i de Califòrnia, liderats per l’Institut d’Anàlisi Econòmica (IAE-CSIC) i la UAB, apliquen l’aprenentatge automàtic per detectar la destrucció d’edificis per artilleria mitjançant l’ús de xarxes neuronals. Aquest mètode automatitzat possibilitaria monitoritzar la destrucció d’un conflicte bèl·lic, gairebé en temps real, per millorar la resposta humanitària.

El mètode, desenvolupat en un projecte co-liderat per Hannes Mueller, de l’Institut d’Anàlisi Econòmica del CSIC i de la Barcelona Graduate School of Economics (BGSE), i Andre Groeger, de la Universitat Autònoma de Barcelona (UAB), es basa en xarxes neuronals que han estat entrenades per detectar en imatges de satèl·lit característiques de destrucció d’atacs amb armament pesat (artilleria i bombardejos), com les runes d’edificis ensorrats o la presència de cràters de bombes. El projecte compta amb la implicació essencial de Joan Serrat, científic del Centre de Visió per Computador i de la UAB.

En el treball, publicat a la revista Proceedings of the National Academy of Sciences (PNAS), els científics han aplicat aquest mètode per monitoritzar la destrucció de sis de les principals ciutats de Síria (Alep, Daraa, Deir-Ez -Zor, Hama, Homs i Raqqa), castigades per un conflicte bèl·lic des de fa més de deu anys. Els resultats mostren que és molt eficient en la monitorització. “El nostre enfocament”, diuen els científics, “es pot aplicar a qualsevol àrea poblada sempre que es disposi d’imatges de satèl·lit repetides i d’alta resolució”.

En el treball també hi participen científics de la Chapman University de Califòrnia (EUA).

Incloure el factor temps

“Un element essencial de el desenvolupament”, puntualitza l’investigador del CSIC Hannes Mueller i autor principal de l’article, “és que la xarxa neuronal superposa i compara imatges successives d’un mateix lloc contrastant sobre una línia temporal que inclou sempre una primera imatge abans del conflicte bèl·lic”. Una altra novetat és la incorporació d’informació espacial i temporal, és a dir, aquella informació que dona context a l’observació de destrucció. Així mateix, l’eina incorpora un mètode nou d’etiquetatge de les imatges: el sistema és capaç de fer suposicions raonables utilitzant la informació contextual i entrenar l’algoritme amb la informació de destrucció al voltant d’un edifici.

Els mètodes automatitzats han de ser capaços de detectar la destrucció en un context on la gran majoria d’imatges no aparenten destrucció. Però sovint interpreten com a enderrocats edificis que realment no ho estan, donant lloc a una elevada taxa de falsos positius (FPR).

Fins i tot a Alep, ciutat fortament castigada per la guerra, només el 2,8% de totes les imatges d’àrees poblades contenen un edifici que va ser confirmat com destruït pel Programa d’Aplicacions Operacionals de Satèl·lits de les Nacions Unides (UNOSAT, en les seves sigles en anglès) al setembre de 2016, on fan una classificació manual.

La precisió baixa és “un problema molt greu”, explica Mueller. Fins i tot en ciutats fortament castigades pels conflictes, només l’1% dels edificis són destruïts. “D’aquí que la seva detecció sigui com buscar una agulla en un paller. Si tenim falsos positius en les imatges, el marge d’error es dispara ràpidament. En aquest cas, la precisió d’un 20%, per exemple, vol dir que, si un algoritme diu que alguna cosa està destruïda, només el 20% del que diu està realment destruït”, detalla.

L’estudi demostra que l’algoritme entrenat és capaç d’identificar danys en zones de la ciutat d’Alep que no formen part de l’anàlisi de UNOSAT. També evidencia que el seu mètode és capaç d’identificar bombardejos a les sis ciutats.

Seguiment en temps quasi real

Els resultats d’aquest treball són prometedors i permeten aplicacions per a la detecció i fins i tot el seguiment en temps gairebé real de la destrucció per conflictes bèl·lics.

El nostre mètode, diuen els investigadors, “és especialment adequat per aprofitar la creixent disponibilitat d’imatges d’alta resolució. Hem calculat que l’etiquetatge manual humà de tot el nostre conjunt de dades costaria aproximadament 200.000 dòlars i les repeticions addicionals d’imatges augmentarien aquest cost gairebé proporcionalment. Amb un mètode automatitzat com el nostre, una major freqüència d’imatges ajuda a millorar la precisió i el cost addicional és petit “.

La destrucció d’edificis durant la guerra és una forma específica de violència particularment nociva per als civils i comunament utilitzada per desplaçar poblacions. No obstant això, les dades solen ser escasses i incompletes, el que limita la capacitat de reacció i la resposta d’ajuda humanitària.

L’ús d’imatges de satèl·lit està creixent a mesura que aquestes imatges guanyen en resolució, però no hi ha mètodes eficients automatitzats que ajudin en aquesta tasca i el marge d’error és molt elevat. Per això, organitzacions com les Nacions Unides, el Banc Mundial i Amnistia Internacional, que fan servir imatges per satèl·lit per avaluar els danys de les guerres, sempre complementen la teledetecció amb la classificació manual humana.

Aquest treball s’ha desenvolupat en el marc d’un projecte interdisciplinari que uneix economistes i ciències de la computació (“la caixa” Research Grants on Socioeconomic Wellbeing Evaluation – Analyzing Conflict from Space). Part de l’equip forma part del grup de recerca de l’IAE-CSIC que investiga les arrels dels conflictes bèl·lics i el seu impacte en el desenvolupament i l’estabilitat dels països (Conflicte, Refugiats i estabilitat, CREST). El treball ha rebut finançament de la Fundació La Ciaxa; del programa Severo Ochoa per a Centres d’Excel·lència en R+D; del Ministeri de Ciència i Innovació, i de la Chapman University (EUA).

Article de referència:

Monitoring war destruction from space using machine learning. Hannes Mueller, Andre Groeger, Jonathan Hersh, Andrea Matranga, Joan Serrat, PNAS June 8, 2021 118 (23) e2025400118; https://doi.org/10.1073/pnas.2025400118

 Mercè Fernández- CSIC Comunicació

Instituto de Análisis Económico (IAE)

A l’esquerra, imatges de la ciutat d’Alep, i a la dreta, les mateixes imatges interpretades per la xarxa neuronal entrenada. El color vermell indica que la xarxa interpreta que hi ha destrucció. / Font: Imatges de satèl·lit de Google Earth / Maxar i càlculs dels autors de la feina.

 

Material de descarrega