Les technologies à base de semi-conducteurs ont évolué de façon significative au début des années 90 et ont permis l’arrivée de nouveaux systèmes d’acquisition numérique. Cependant, leur qualité de capture était à l’origine trop limitée par rapport aux systèmes analogiques. L’augmentation de la résolution des capteurs est donc rapidement devenue un enjeu crucial de cette décennie. C’est à cette époque qu’apparaissent les premiers appareils photographiques entièrement numériques : les pellicules et leur développement sont respectivement remplacées par des cartes de stockages réutilisables et des impressions instantanées. Les appareils numériques réussissent ainsi à s’imposer progressivement face aux analogiques.
Les précédentes avancées ont permis le développement d’autres techniques dans des domaines différents de la photographie. De nouveaux systèmes de capture ont ainsi émergés tels que les scanners 3D. Les systèmes de capture 3D classiques, estimant la profondeur par contact, sont ainsi améliorés par l’utilisation de capteurs CCD et de Laser. Ce nouveau type de scanner est particulièrement employé dans des domaines tels que la conservation du patrimoine (par ex. project Michelangelo – Figure 1.1) où il est nécessaire de numériser des objets sans qu’ils ne subissent de détériorations. Cependant la nature des données 3D diffère de celle des images 2D. Des outils spécifiques à leur traitement ont donc été introduits et définissent ainsi les toutes premières chaines d’acquisition 3D.
À la fin des années 90, les capteurs numériques réussissent à atteindre des résolutions équivalentes ou supérieures à celles obtenues par des systèmes classiques. Malheureusement, l’utilisation des appareils numériques reste réservée à une élite. Ce phénomène peut être expliqué par plusieurs facteurs : un prix d’achat trop élevé, et des systèmes de capture qui ne sont généralement pas adaptés aux besoins du grand public (difficulté d’utilisation, encombrement, poids élevé, etc.). Ainsi, l’adaptation des systèmes d’acquisition numérique à ces besoins est devenu l’enjeu principal des années 2000.
Cette démocratisation est particulièrement visible avec l’apparition des appareils photos compacts. L’utilisation de nouveaux algorithmes de gestion automatique des paramètres intrinsèques (focus, ouverture, balance des blancs, etc.) les rendent facile d’utilisation pour les non-connaisseurs. La photographie numérique devient donc accessible à tous à partir du début des années 2000. À partir de là, de nombreux constructeurs se sont mis à développer des appareils de plus en plus performants à des prix toujours plus bas afin de mieux satisfaire les demandes de ces nouveaux utilisateurs. Au milieu des années 2000, de nouvelles avancées technologiques permettent de produire des capteurs miniaturisés à l’extrême pour des coûts dérisoires. Désormais plus petits qu’une pièce de monnaie, ils se retrouvent rapidement intégrés aux téléphones portables et bouleversent par la même occasion les habitudes d’utilisation du grand public. La résolution et les performances de capture (zoom, iso etc.) deviennent progressivement des arguments de vente incontournables.
Pendant ces années 2000, les systèmes de captures 3D ne cessent d’évoluer. De nouveaux types de capteurs font leur apparition en proposant l’exploitation de plusieurs images par stéréovision, la projection de motifs connus par lumière structurée, l’analyse du focus d’un appareil photo ou, plus récemment, les capteurs plénoptiques. Pendant cette période, l’utilisation des capteurs 3D se généralise à de nombreux domaines tels que le cinéma, les jeux vidéo, la robotique, l’automobile, etc. . Durant plusieurs années, l’utilisation de ces scanners 3D reste néanmoins réservée à un public restreint. Ce n’est qu’à partir du début des années 2010 que les capteurs 3D grand public sont démocratisés par l’industrie des jeux vidéos (par ex. Microsoft Kinect). Grâce à leur faible prix, il devient facile d’acquérir des données 3D. Cela permet d’attirer de nouveaux utilisateurs et d’élargir les types d’usage de ces données.
À l’heure actuelle, la démocratisation des capteurs numériques est telle, qu’en France, des millions d’appareils photos numériques sont vendus chaque année, environ la moitié de la population possède un capteur photo sur son téléphone (smartphone) et environ un million de personnes possèdent une Kinect. Ainsi, chaque jour, une quantité astronomique de données 2D et 3D est ainsi générée à travers le monde. Avec l’essor des réseaux de communications et avec l’apparition des smartphones, une grande partie de cette information se retrouve partagée avec le reste du monde. En guise d’exemple, des dizaines de milliards de photos sont échangées chaque année sur l’un des principaux réseaux sociaux actuels (Facebook).
Désormais, la majorité des systèmes d’acquisition numérique modernes sont connectés aux réseaux de communications (3G, 4G en préparation, etc.). Ils peuvent donc transmettre très facilement l’information acquise. Aujourd’hui, ces données partagées restent néanmoins difficilement exploitables par les machines de calculs modernes (ordinateur personnel, smartphone, etc.) dans la mesure où elles ne disposent pas d’une capacité de mémoire suffisante pour pouvoir les gérer. Ainsi, les différentes évolutions récentes laissent à penser que cette exploitation sera le nouveau challenge de ces années 2010.
Durant ces dernières années, les technologies d’acquisition numériques n’ont cessées de se perfectionner. Ces différentes évolutions ont donc permis l’apparition de capteurs miniaturisés, économes en énergie et surtout capables d’acquérir des données avec une qualité toujours plus fine. Malgré ces différentes améliorations, les capteurs restent sujet à des perturbations (tel que bruit électronique, résonance magnétique, etc.). Ces problèmes électroniques ajoutés aux contraintes d’acquisition (distorsions, effets de masquage, etc.) viennent perturber la capture entrainant l’apparition de défauts tels que du bruit, des points parasites, des trous dans les données acquises, etc.
Ces imperfections sont inhérentes à toute technologie de capture et ne peuvent pas être corrigées matériellement. Elles nécessitent donc un traitement logiciel particulier. Ainsi, en même temps que l’apparition des tout premiers capteurs numériques dès le début des années 90 apparaissent les premières méthodes de restauration telles que le débruitage, la reconstruction, le suréchantillonnage, etc.
Jusqu’au milieu des années 2000, ces approches s’appuient uniquement sur un traitement local des données (Figure 1.2). Dans le cadre du traitement des images, cette localité s’exprime de deux manières différentes :
Durant les années 90, la puissance de calcul et la capacité de stockage en mémoire restant limitées, seul des filtres simples pouvaient être évalués. Ainsi, le support du filtre a été restreint à un support local : un pixel est filtré par rapport aux pixels appartenant à un voisinage local. C’est à cette époque que sont introduits les filtres par minimisation de la variation totale, bilatéraux, etc..
Avant le milieu des années 2000, les réseaux de communications ne permettent pas d’échanger une quantité de donnée importante. Ainsi, les approches de restauration sont réduites à l’utilisation d’une seule image : un pixel est filtré à partir de l’information contenue dans l’image à filtrer.
1 Introduction |