Sommaire: Synthèse de nouvelles vues pour les applications en réalité augmentée
Table des matières et des figures
Résumé.
Chapitre I :Introduction
1. Introduction
2. Synthèse d’images classique (à base de modèles géométriques)
2.1 Phase de modélisation
2.2 Phase de rendu
3. Synthèse de nouvelles vues à partir d’images réelles
4. Applications
4.1 Entraînement
4.2 Simulation
4.3 Commerce, conservation, loisirs
4.4 Compression de données
5. Organisation du mémoire
Chapitre II : Synthèse de nouvelles vues à partir d’images réelles (IBMR) : Principes et méthodes
1. Introduction
1.1 Les méthodes actives
1.2 Les méthodes passives
1.2.1 La stéréovision
1.2.2 Système de stéréovision
2. La Géométrie de la vision
2.1 Systèmes de coordonnées
2.2 Coordonnées homogènes et transformations géométrique
2.2.1 Coordonnées homogènes
2.2.2 Les transformations élémentaires que subissent les objets dans l’espace 3D
2.2.3 Les Homographies
2.3 Espaces Euclidien, métrique, affine et projectif
2.4 Modèle de la camera et la formation de l’image
2.4.1 Modèle de la caméra
2.4.2 Limitations du modèle de trou d’épingle
2.5 Formation de l’image
2.6 Géométrie épipolaire et relation entre deux images
2.6.1 La contrainte épipolaire
2.6.2 La matrice fondamentale
2.6.3 La matrice essentielle
2.7 Calibrage
2.7.1 Calibrage d’une caméra
2.7.1.1 Calibrage classique
2.7.2.2 Calibrage automatique ou auto-calibrage
3. La mise en correspondance
3.1 Correspondance stéréo
3.2 Primitives stéréoscopiques
3.3 Contraintes de la mise en correspondance
3.3.1 Contraintes géométriques
3.3.1.1 Contrainte épipolaire
3.3.1.2 Contrainte de limites de disparité
3.3.1.3 Contrainte d’ordre
3.3.1.4 Contrainte d’unicité
3.3.2 Contraintes figurales
3.3.2.1 Disparité locale constante
3.3.2.2 Continuité figurale
3.4 Les méthodes de la mise en correspondance
3.4.1 Méthodes locales d’appariement
3.4.1.1 Mesures de similarité
3.4.1.2 Méthodes de gradient
3.4.2 Forces et lacunes des méthodes locales
3.4.3 Méthodes globales d’appariement
3.4.3.1 Programmation Dynamique
3.4.3.2 Max-flow / min-cut
4. La reconstruction
5. Les méthodes de rendu et modélisation à base d’images IBMR
5.1 Techniques de rendu purement à base d’images
5.1.1 Imposteurs
5.1.2 Forme à partir de X (Shape from X)
5.1.2.1 Forme à partir de contour (Shape from contour)
5.1.2.2 Forme à partir de l’ombrage (shape from shading)
5.1.2.3 Forme à partir de silhouette (shape from silhouette)
5.1.2.4 Forme à partir de texture (shape from texture)
5.1.3 Morphing/Interpolation
5.1.3.1 Le morphing
5.1.3.2 Interpolation de point de vue (View Interpolation)
5.1.3.3 Déformation de point de vue (View Morphing)
5.1.4 Interpolation de rayons lumineux et fonction plénoptique
5.1.4.1 Fonction plénoptique
5.1.4.2 Modélisation plénoptique (Plenoptic Modeling)
5.1.4.3 Light Fields et Lumigraphes
5.1.4.4 Mosaïques concentriques (Concentric mosaic)
5.1.4.5 Panoramas (image mosaicing)
5.1.5 Modélisation volumétrique de scène (volumetric scene medeling)
5.1.5.1 Coloration de voxel (Voxel coloring)
5.1.5.2 Space carving
5.2 Techniques basées images / basées géométrie
5.2.1 Transfert d’images classique
5.2.2 Déformation 3D d’images (3D image warping)
5.2.3 Images à plans de profondeurs (LDI : Layered Depth Images)
5.3 Techniques hybrides
5.3.1 Placage de texture
5.3.2 Placage de texture en relief
5.3.3 Façade : une approche hybride entre image et géométrie
6. Conclusion
Chapitre III : Les techniques d’IBMR Pour Les applications en Réalité Augmentée
1. Introduction
2. La réalité augmentée
2.1 Intérêts
2.2 Réalité augmentée contre réalité virtuelle
2.3 Technologies d’affichage
2.3.1 Affichage à base de moniteurs
2.3.2 HMD optiques
2.3.3 HMD Vidéos
3. Rendu et modélisation à base d’images et les applications en réalité augmentée
3.1 Applications
3.1.1 Médecine
3.1.2 Design intérieur
3.1.3 Effets spéciaux
3.1.4 Musé virtuel
4. Conclusion
Chapitre IV : Une nouvelle approche de reconstruction d’objets 3D par la combinaison : enveloppe visuelle / Stéréovision
1. Introduction
2. L’enveloppe visuelle
3. La stéréovision
4. L’approche proposée
4.1 Système de prise de vues
4.2 Etapes du processus de reconstruction
4.2.1 Calcul de l’enveloppe visuelle
4.2.2 Restriction du champ de recherche d’un correspondant d’un point
4.2.3 Mise en correspondance et reconstruction
4.2.4 Placage de texture
5. Résultats
6. Conclusions
Conclusions et Perspectives
Références bibliographiques
Extrait du mémoire synthèse de nouvelles vues pour les applications en réalité augmentée
Chapitre I : Introduction
1. Introduction
Les images, quelle que soit leur provenance, représentent un support considérable d’informations que ce soit comme support de réflexion (aide à la décision, conception, … etc) ou comme support de communication (production, représentation, etc). L’émergence relativement récente des nouvelles technologies informatiques de traitement et d’acquisition de l’information a multiplié de manière importante les possibilités d’exploitation de ces images de manière presque exclusivement numérique, et le domaine de l’usage d’images de qualité photographique est particulièrement concerné. L’évolution des capacités de traitement, aussi bien matérielles que logicielles, a également permis de rendre abordable de nouveaux outils de manipulation permettant d’exploiter directement ces images au format numérique avec une qualité équivalente, sinon meilleure, que celle obtenue par les techniques plus traditionnelles pour certaines tâches bien définies. Dans ce chapitre on essaye de définir très brièvement le principe de la synthèse d’images classique à base des modèles géométriques 3D, comme nous citons quelques limitations et difficultés de ce type de synthèse.
Puis nous présentons le principe général de la synthèse d’images à partir d’images qui est une alternative à l’approche classique de synthèse d’images.
Le chapitre suivant reprend en détails les notions et les bases de la synthèse d’images à partir d’images.
2. Synthèse d’images classique
La synthèse d’images classique a pour but de calculer des vues aussi réalistes que possible d’une scène tridimensionnelle définie par un modèle géométrique 3D, augmentée de certaines informations photométriques : couleurs, textures, matériaux, et nature de leurs interactions avec la lumière. Les techniques classiques de synthèse d’images s’attachent toutes à produire des vues d’une scène de modèle géométrique 3D connu. Classiquement, pour ces applications, il est nécessaire d’effectuer une première étape de modélisation manuelle de chaque élément de la scène à synthétiser, puis une étape de rendu pour générer les images finales de cette scène.
2.1 Phase de modélisation
Lors de cette modélisation, le concepteur doit décrire à l’aide d’un formalisme approprié les caractéristiques géométriques (forme) et photométriques (couleurs, textures planes) des objets de la scène. Chacun de ces objets est alors habillé par une couleur (dans le cas le plus simple) ou d’une texture qui représente le matériel de cet objet, voire également sa rugosité et son relief. Puis, sont définies les différentes lumières éclairant la scène et les caméras desquelles sont prises les vues. Cette phase est réalisée généralement à la main, assistée par un logiciel spécialisé qui permet au concepteur de décrire rapidement et de placer les objets dans le volume de la scène.
………
Si le lien ne fonctionne pas correctement, veuillez nous contacter (mentionner le lien dans votre message)
Mémoire Online: Synthèse de nouvelles vues pour les applications en réalité augmentée (3.3 MO) (Cours PDF)