Projet Ville Numérique
Recalage de données multi sources pour la modélisation 3D urbaine
Cette tâche a consisté à développer une première approche de fusion de données images acquises depuis des points de vue aérien et terrestre. L’objectif est de pouvoir produire des modèles 3D urbains à partir de ces sources de données qui permettent de bénéficier d’une vision détaillée de l’ensemble des éléments de la ville : Toits et cours intérieures depuis les images aériennes Vue détaillée des façades et de la route depuis les images terrestres. Résultats Pour réaliser cette tâche, nous disposions de données aériennes acquises en 2009 (10cm de résolution), sur le chantier test de la Mairie du XIIe arrondissement de Paris. De même, les images issues du système de cartographie mobile Stéréopolis sur cette même zone ont été utilisées. L’approche proposée repose sur de la fusion des maillages obtenus séparément par, d’une part les images aériennes, et, d’autre part les images terrestres. Pour la reconstruction des maillages, la première étape consiste à calculer la calibration de chacun des jeux de données (chacune ayant donc son repère propre) avec la bibliothèque OpenSource OpenMVG . Une fois les caméras calibrées, la suite logicielle ImagineMVS a ensuite pu être mise en œuvre pour calculer les maillages issus des images terrestres et aériennes. A cette étape, nous disposons donc de deux maillages qu’il convient maintenant de fusionner. Ceci est réalisé en remettant dans le même repère les maillages, grâce aux coordonnées GPS disponibles, et en en détectant les zones de recouvrement. A partir de ces zones communes, un algorithme de fusion de maillage est appliqué. Cet algorithme, étant donnée sa formulation a une tendance naturelle à favoriser les mailles les plus fines, donc les mailles terrestres. Le résultat en sortie est un maillage fusionné, don schématiquement, les toits sont reconstruits à partir des images aériennes, et les façades et rue à partir des images terrestres. Cette tâche a permis d’explorer la faisabilité de fusionner des jeux de données différents pour obtenir une modélisation 3D urbaine dense et profitant de la meilleure résolution des données en tout point de l’espace. Elle a également permis d’ouvrir des pistes de recherche, notamment sur la fusion de maillage et la calibration.
Sémantisation des modèles 3D urbains
Partenariat et chercheurs Responsable : Renaud Marlet (ENPC-IMAGINE) depuis 2012 en remplacement de Jean-Yves Audibert. Le travail a impliqué deux organismes, l’ENPC et le CSTB, déjà réunis depuis janvier 2009 dans une équipe de recherche commune (IMAGINE) bi-localisée, à Marne-la-Vallée et à Sophia Antipolis. Les chercheurs ayant directement participé aux travaux sur cette tâche sont les suivants. Jean-Yves Audibert (ENPC/IMAGINE), chercheur permanent Mateusz Kozinski (ENPC/IMAGINE) , doctorant en cofinancement CSTB+ENPC, Renaud Marlet (ENPC/IMAGINE), chercheur permanent David Ok (ENPC/IMAGINE), doctorant en cofinancement CSTB+ENPC, Olivier Tournaire (CSTB/IMAGINE), chercheur permanent Les échanges pour cette tâche se sont inscrits naturellement dans la dynamique d’équipe déjà en place, avec des outils standards de partage de code et de travail collaboratif (SVN), et des formats de données standard également (images). Contexte et évolution des objectifs La simulation sur la ville nécessite non seulement des modèles géométriques mais aussi une connaissance de la sémantique des surfaces et volumes modélisés. Par exemple, l’évaluation de la performance énergétique a besoin de connaître où sont les ouvertures (portes, fenêtres), les toits et leur nature
Sommaire |