Méthode non-additive intervalliste de super-résolution d’images, dans un contexte semi-aveugle

Nous avons tous déjà vu, au moins une fois, un épisode d’une série policière faisant la promotion d’un petit génie de l’informatique utilisant des logiciels sophistiqués lui permettant de lire le nom d’un suspect, sur sa carte d’identité, alors que celle-ci était posée négligemment sur une commode visible à travers une fenêtre dont l’image n’occupait que quelques pixels d’une image satellitaire de mauvaise qualité. Ce type de scène relève actuellement de la fiction, mais un tel exploit est-il possible dans le futur ?

La technique à la quelle ce genre de scène fait référence porte le nom de « superrésolution d’images ». La super-résolution consiste en l’amélioration, ou l’augmentation de la résolution d’images acquises avec des imageurs faiblement résolus. Elle est déjà appliquée dans de nombreux domaines utilisant l’imagerie numérique comme l’imagerie médicale, la vidéo-surveillance et la microscopie. Dans tous les domaines d’application de l’imagerie numérique, l’objectif final est d’extraire de l’information à partir des images acquises soit de manière visuelle, ou bien informatique. Cependant, il existe de nombreuses situations où les dégradations introduites dans l’image durant l’acquisition sont trop importantes pour pouvoir extraire correctement l’information recherchée. Ces dégradations peuvent être dues, par exemple, aux conditions difficiles d’acquisition, ou simplement à la nature même de l’imageur utilisé. On peut citer trois types de dégradation dans les images numériques :
– Le bruit, dont les causes principales sont les erreurs de transmission, les moyens d’enregistrement, les bruits de mesure, et le bruit de quantification.
– La perte de résolution optique (ou réduction de la bande passante), dont les causes principales sont la Réponse Impulsionnelle (RI) de l’imageur, regroupant l’effet du système optique et l’intégration sur les détecteurs CCD.
– La perte de résolution numérique (ou spatiale), due à l’échantillonnage clairsemé de l’image. Il se traduit par le phénomène de repliement de spectre (aliasage) dans l’image acquise.

Il arrive souvent qu’on ne puisse pas améliorer la résolution de l’imageur, soit pour des raisons de coût (les systèmes optiques sophistiqués, par exemple, coûtent très cher), ou bien à cause des limites physiques. Par exemple, une amélioration de la résolution numérique d’un imageur consisterait à augmenter son nombre de pixels, c.à.d. le nombre de détecteurs photosensibles du capteur CCD, afin de rendre l’échantillonnage de l’image plus dense. Malheureusement, cette augmentation implique une diminution de la taille de ces détecteurs, ce qui conduit à une diminution de la quantité de lumière collectée par chaque détecteur et donc une détérioration du rapport signal/bruit.

C’est justement là qu’intervient la SR pour essayer de pallier à l’impossibilité technologique ou économique de réaliser des images de résolution suffisante. Elle est généralement basée sur l’exploitation de la complémentarité de l’information spatiale présente dans les images d’une même scène, entre lesquelles il existe des mouvements. Le principe est basé sur l’idée suivante : au lieu d’essayer d’augmenter le nombre de pixels d’un imageur, au risque de réduire le rapport signal/bruit, on augmente le nombre d’acquisitions d’une scène en bougeant légèrement l’imageur (ou le sujet) avant chaque acquisition. En veillant à ce que la position du capteur par rapport à la scène (ou au sujet), lors d’une acquisition, soit différente par rapport à toutes les acquisitions précédentes, l’information spatiale contenue dans l’image acquise sera différente de celle des images précédentes et donc complémentaire. Afin de réaliser la restauration, ces techniques nécessitent une estimation préalable des mouvements dominants entre les images avec une précision sous-pixélique.

Le problème de super-résolution est souvent modélisé comme un problème inverse linéaire : on représente la relation entre l’image hautement résolue qu’on cherche à restaurer et les images bassement résolues acquises par un modèle de dégradation linéaire, appelé aussi modèle d’acquisition, comprenant les mouvements existants entre l’image hautement résolue recherchée et les images bassement résolues, l’effet de la RI de l’imageur lors de l’acquisition, le bruit ajouté et la perte de résolution numérique. La restauration se fait par inversion du modèle de dégradation.

Un des aspects caractérisant le problème de super-résolution est qu’il s’agit d’un problème inverse mal posé au sens de Hadamard [Bertero et al., 1988], c.à.d. qu’il peut admettre plusieurs solutions ou aucune. En outre, la solution ne dépend pas continument des données, on parle alors de mauvais conditionnement. Ceci a pour conséquence qu’une petite erreur dans le modèle de dégradation considéré peut conduire à des erreurs importantes dans la solution estimée. Cette caractéristique rend le problème de super-résolution particulièrement difficile à résoudre. En effet, dans le modèle d’acquisition, l’effet de la RI de l’imageur et le modèle du bruit dépendent des caractéristiques intrinsèques de l’imageur. Leur estimation exacte et précise est très souvent impossible à réaliser car elle constitue, elle aussi, un problème mal posé.

Un certain nombre de méthodes ont été développées afin de réduire les artefacts induits par ces erreurs de modélisation dans la solution estimée. Elles sont généralement basées sur des connaissances à priori (ou hypothèses) sur la statistique et/ou la structure de la solution recherchée. Ces méthodes ont été unifiées par la théorie de la régularisation des problèmes inverses mal posés. Malheureusement, ces méthodes peuvent parfois avoir un effet contradictoire avec l’objectif même de la super-résolution dans le sens où elles tendent à pénaliser les hautes fréquences tandis que la super-résolution a pour but de les recouvrer. De plus, aucune de ces méthodes ne modélise proprement le fait que la RI de l’imageur soit mal connue.

Dans ce manuscrit, nous proposons de réduire l’influence d’une mauvaise modélisation de la RI de l’imageur en utilisant une représentation imprécise de celle ci. Cette représentation, dérivée de la théorie des probabilités imprécises, conduit à un modèle non linéaire et une méthode de super-résolution aboutissant à une solution imprécise (ou intervalliste) reflétant la connaissance imprécise sur la RI de l’imageur. La solution estimée, en utilisant une faible connaissance sur la RI, présente plusieurs caractéristiques intéressantes parmi lesquelles une certaine robustesse et une quantification de l’erreur d’estimation.

Depuis environ une trentaine d’années, la communauté scientifique s’intéresse à l’augmentation de la résolution des images dans le but d’outrepasser les limites imposées par les capteurs. Les premiers travaux sur la reconstruction d’images de haute résolution à partir de séquences d’images basse résolution ont été publiés en 1984 dans [Tsai et Huang, 1984]. Le terme de « Super-résolution », quant à lui, est apparu aux alentours des années 1990 dans les travaux de Irani et Peleg [Irani et Peleg, 1990]. Les auteurs définissent un procédé s’apparentant à la reconstruction d’images à partir de projections, utilisée en tomographie assistée par ordinateur.

L’intérêt porté à la super-résolution connait une croissance significative dans la communauté du traitement d’images. Un nombre conséquent travaux portant sur ce sujet ont été publiés durant ces deux dernières décennies. On retrouve des études assez complètes des techniques de super-résolution proposées par la littérature comme par exemple celle de Tian et Ma en 2011 [Tian et Ma, 2011] et l’ouvrage proposé par [Milanfar, 2010]. Ce dernier dresse un panorama quasi exhaustif des approches et techniques d’amélioration de la résolution, tant en imagerie classique qu’en vidéo, proposées avant l’année 2011. Nous nous devons de citer aussi deux études plus anciennes, [Borman et Stevenson, 1998] et [Park et al., 2003], qui présentent les méthodes de super-résolution proposées sur la période couvrant des années 1984 au début des années 2000.

Table des matières

Introduction générale
1 État de l’art
1.1 Approches formulées dans le domaine fréquentiel
1.1.1 Discussion
1.2 Approches par interpolation puis restauration
1.2.1 Interpolation
1.2.2 Restauration
1.2.3 Discussion
1.3 Approches par optimisation
1.3.1 Approches déterministes
1.3.2 Approches stochastiques
1.4 Projection sur des ensembles convexes
1.5 Approches par apprentissage
1.6 Discussion
1.6.1 Représentation de la réponse impulsionnelle
1.6.2 Discussion sur le modèle d’acquisition
1.7 Conclusion
2 Notations et définitions préliminaires
2.1 Notations
2.2 Mesures de confiance et intégrales
2.3 Noyaux sommatifs et noyaux maxitifs
2.4 Espérance précise et espérance imprécise
2.5 Les partitions floues
2.5.1 Ensembles flous
2.5.2 Partitions floues
2.6 Les intervalles réels généralisés
3 Traitement d’un modèle imprécis de la RI en Super-Résolution
3.1 Notre modèle de Super-Résolution
3.2 Approche par passage continu/discret pour la définition des projection et rétro projection
3.2.1 Projection
3.2.2 Rétro-projection
3.3 Réinterprétation de l’algorithme de rétro-projection itérative IBP
3.4 Les Fonctions de Pondération de Voisinages (FPV)
3.4.1 Définition
3.4.2 FPV continue
3.4.3 FPV discrète
3.5 Projection et rétro-projection additives basées sur les partitions floues
3.6 Projection et rétro-projection non-additives basées sur des partitions floues
3.7 La technique de rétro-projection itérative imprécise
4 Conclusion générale

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *