Le modèle Rudin-Osher-Fatemi

Le modèle Rudin-Osher-Fatemi

Position du problème

Débruitage pur Le modèle ROF (Rudin-Osher-Fatemi) a été introduit en  [7] comme modèle de débruitage pur d’un signal. Par débruitage pur, on sous-entend qu’aucune déconvolution n’est réalisée sur le signal (comme ¸ca peut ˆetre le cas avec les problèmes de déconvolution). Le modèle de formation du signal est donc g = u + n o`u g : Ω ⊂ R n → R m est le signal observé, u : Ω ⊂ R n → R m le signal idéal (inconnu) et n : Ω ⊂ R n → R m un bruit blanc gaussien additif (inconnu également). L’objectif est donc d’estimer le signal idéal à partir de son observation bruitée g. Le débruitage d’une image en niveaux de gris correspond au cas n = 2 et m = 1 tandis que le débruitage d’une image en couleurs (RGB par exemple) correspond au cas n = 2 et m = 3. Les méthodes les plus simples (et certainement les plus utilisées) procèdent par un filtrage linéaire de l’image. En d’autres termes, pour estimer la valeur u(x) d’un pixel x, on calcule la moyenne de l’image bruitée g sur un certain voisinage du pixel en question. Si ce voisinage est un voisinage spatial (une fenˆetre centrée en x par exemple), alors le résultat est généralement une image certes débruitée, mais floue. Une stratégie pour éviter cet écueil a été proposée avec l’utilisation des NL-means (moyennage non local), qui consiste à considérer un voisinage dans l’espace des couleurs : on moyenne des pixels qui présentent le mˆeme aspect visuel sur une petite fenˆetre. Cette approche permet de mieux préserver les discontinuités de l’image, mais implique de trouver pour tout pixel suffisamment de répliques pour pouvoir le débruiter. Ce genre de méthode repose également sur un nombre important de paramètres, qui sont nécessaires pour définir les différentes proximités. Le défi principal du débruitage pur est donc de parvenir à supprimer (autant que possible) le bruit, tout en préservant les discontinuités de l’image. Le cadre de travail le plus naturel est donc l’espace BV des fonctions à variations bornées [6]. Dans le modèle ROF, l’idée centrale est de trouver une estimation du signal de norme TV minimale, étant entendu que les images dites naturelles présentent une faible norme TV. 

Modèle variationnel

 Le modèle ROF est un modèle variationnel, o`u la fonctionnelle d’énergie comporte deux termes. Le premier terme est un terme d’attache aux données ; il est défini par la norme L2 pour gérer le bruit blanc gaussien. Le second terme est un terme de régularisation ; ainsi qu’on l’a déjà évoqué, dans le modèle ROF, il s’agit de la norme TV. On cherche donc à résoudre le problème min v∈BV(Ω;Rm)  1 2λ Z Ω |v(x) − g(x)| 2 dx + TV(v)  (6.1) o`u λ > 0 est un paramètre permettant de modifier les importances respectives du terme d’attache aux données et du terme de régularité. Plus λ est grand, plus la régularisation TV est importante. Il est à noter que la présence du terme quadratique rend ce problème fortement convexe, donc la solution est unique. Dans leur article original [7], les auteurs minimisent cette fonctionnelle d’énergie grˆace à des équations aux dérivées partielles non linéaires. Nous allons montrer dans ce qui suit que d’autres approches plus efficaces peuvent ˆetre envisagées pour résoudre ce problème.

Algorithme de Condat 

Proposé en  par Laurent Condat [2], cette méthode repose sur la caractérisation des sur-solutions et sous-solutions du problème (6.3), c’est- à-dire des majorants et des minorants de la solution, qui satisfont un certain nombre de conditions. Celles-ci découlent de l’équation d’Euler associé au problème étudié. En faisant des hypothèses de constance locale de la solution, on construit progressivement des sur- et sous-solutions, jusqu’à ce qu’une impossibilité apparaisse (typiquement, la sur-solution passant sous la solution ou la sous-solution passant au-dessus de la solution). On peut alors identifier le point jusqu’auquel les hypothèses sont correctes, puis reprendre l’estimation de la solution à partir de ce point. La complexité de cet algorithme est de O(N) dans la majorité des cas, mais est moins bonne dans le pire des cas. 205 

Algorithme de Johnson

 L’algorithme proposé par Nicholas Johnson en  [5] repose quant à lui sur la programmation dynamique. Le principe est de transformer le problème global (6.3) en une série de problèmes locaux (définis sur les i premiers coefficients du vecteur). L’idée est de considérer l’estimation d’un vecteur de i points comme la minimisation d’une énergie à trois termes : l’énergie du dernier point i, l’énergie du vecteur privé de ce point, et l’énergie d’interaction entre ces deux composantes du vecteur initial, qui ne dépendant que du i-ème et du i − 1-ème point. Si l’énergie optimale du vecteur composé des i − 1 premiers points peut ˆetre rapidement calculée quelle que soit la configuration testée, alors le problème est simplifié, car il s’agit uniquement de trouver le i-ème point, les i−1 premiers points étant alors pris optimaux pour ce choix. Johnson montre que ce schéma de résolution repose en pratique entièrement sur la recherche du zéro d’une fonction affine par morceaux qui est progressivement mise à jour. Or, l’encodage d’une telle fonction est peu coˆuteuse, car il s’agit uniquement d’en stocker les points de rupture. La complexité de l’algorithme est en O(N). Malheureusement, ces deux approches exploitent des propriétés liées à l’unidimensionnalité du signal, et ne peuvent donc pas ˆetre étendues à des cas plus généraux (n > 1 ou m > 1).

Cours gratuitTélécharger le cours complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *