Agritrop
Accueil

M3Fusion : Un modèle d'apprentissage profond pour la fusion de données satellitaires Multi-{Echelles/Modalités/Temporelles}

Benedetti Paola, Gaetano Raffaele, Osé Kenji, Pensa Ruggero, Dupuy Stéphane, Ienco Dino. 2018. M3Fusion : Un modèle d'apprentissage profond pour la fusion de données satellitaires Multi-{Echelles/Modalités/Temporelles}. . SFPT. Marne-la-Vallée : s.n., 8 p. Conférence Française de Photogrammétrie et de Télédétection, Marne-la-Vallée, France, 26 Juin 2018/27 Juin 2018.

Communication sans actes
[img]
Prévisualisation
Version publiée - Français
Utilisation soumise à autorisation de l'auteur ou du Cirad.
CFPT2018_paper_benedetti-1.pdf

Télécharger (2MB) | Prévisualisation

Url - éditeur : https://rfiap2018.ign.fr/sites/default/files/ARTICLES/CFPT2018/Oraux/CFPT2018_paper_benedetti.pdf

Résumé : Les systèmes modernes d'observation de la Terre fournissent des données à différentes résolutions temporelles et spatiales. Parmi les capteurs optiques, la constellation Sentinel-2 acquiert aujourd'hui des images à haute résolution temporelle (tous les 5 jours) et à haute résolution spatiale (10 m) qui sont utiles pour ´étudier la dynamique de l'occupation du sol. D'autre part, les images à très haute résolution spatiale (THRS) demeurent des données essentielles pour identifier les éléments caractérises par des motifs spatiaux fins. Comprendre comment exploiter efficacement l'hétérogénéité des informations fournies par différents capteurs, dans un processus de fusion de données, est un d´défi majeur dans le domaine de la télédétection. En utilisant conjointement les séries temporelles à haute résolution et les informations spatiales fines contenues dans les images THRS, nous proposons un modèle d'apprentissage profond, appelé M3Fusion, pour relever ce défi et cartographier ainsi l'occupation du sol. Les expériences, menées sur l'Île de la Réunion, montrent la qualité de notre architecture neuronale, comparée à une approche standard d'apprentissage automatique, tant en termes de performances quantitatives que de rendu spatial.

Résumé (autre langue) : Modern Earth Observation systems provide remote sensing data at different temporal and spatial resolutions. As regards optical sensors, nowadays, the Sentinel-2 program supplies images with high temporal resolution (every 5 days) and high spatial resolution (10m) that can be useful to monitor land cover dynamics. On the other hand, Very High Spatial Resolution images (VHSR) are still an essential data to figure out land cover mapping characterized by fine spatial patterns. Understand how to effectively leverage together these complementary sources of information to deal with land cover mapping is still challenging. With the aim of dealing with land cover mapping through the fusion of multi-temporal High Spatial Resolution and Very High Spatial Resolution satellite images, we propose an End-to-End Deep Learning framework, named M3Fusion, able to leverage simultaneously the temporal knowledge contained into time series data as well as the fine spatial information available in VHSR images. Experiments carried out on the Reunion Island study area asses the quality of our proposal considering both quantitative and qualitative aspects. Finally, the performances of our method are also compared to a standard machine learning approach (Random Forest) used as baseline.

Mots-clés libres : Occupation du sol, Fusion de données, Deep Learning, Apprentissage profond, Série Temporelle d’images satellitaires, Très haute résolution spatiale

Auteurs et affiliations

  • Benedetti Paola, IRSTEA (FRA)
  • Gaetano Raffaele, CIRAD-ES-UMR TETIS (FRA)
  • Osé Kenji, IRSTEA (FRA)
  • Pensa Ruggero, University of Turin (ITA)
  • Dupuy Stéphane, CIRAD-ES-UMR TETIS (REU) ORCID: 0000-0002-9710-5364
  • Ienco Dino, IRSTEA (FRA)

Source : Cirad-Agritrop (https://agritrop.cirad.fr/589152/)

Voir la notice (accès réservé à Agritrop) Voir la notice (accès réservé à Agritrop)

[ Page générée et mise en cache le 2024-04-06 ]