Traitement statistique d’images hyperspectrales pour la détection d’objets diffus

Traitement statistique d’images hyperspectrales pour la détection d’objets diffus

Modèle

Champs de Markov couples convolutifs Soient deux processus : Y = (Ys)s∈S est le processus d’observation et X = (Xs)s∈S est le processus de classes. S est l’ensemble des sites s de l’image, qui est régie par un système de voisinage noté (Ns)s∈S. Les variables Xs sont à valeurs dans Ωx et les vecteurs Ys sont à valeurs dans R Λ. Dans le cas de la modélisation d’une image hyperspectrale, les vecteurs Ys représentent les spectres de l’image et Λ est le nombre de bandes spectrales de ces spectres. Dans le cadre de la modélisation par champs de Markov couples (CMC) [Pieczynski et Tebbache, 2], le couple (X, Y) a une distribution de champ de Markov : p(x, y) ∝ Y s∈S p(xs, ys|xNs , yNs ). (5.1) Nous supposons que (X, Y) est stationnaire, et retenons uniquement les cliques de deux éléments. Dans le cadre du modèle de Markov couple que nous proposons, nous faisons l’hypothèse que YNs et (Xs, Ys) sont indépendants conditionnellement à XNs : p(xs, ys|xNs , yNs ) = p(xs, ys|xNs ). (5.2) Cette densité peut s’écrire sous la forme suivante : p(xs, ys|xNs ) = p(ys|xs, xNs )p(xs|xNs ). (5.3) La figure 5.1 illustre le graphe de dépendances du modèle correspondant à (5.2). Nous détaillons maintenant les deux termes formant la densité (5.3). Nous supposons que X a une distribution de champ de Markov, reposant sur une fonction de Ising/Potts : p(xs|xNs ) ∝ exp  − X s ∈Ns α  1 − 2δ xs xs    ; (5.4) où α est un paramètre du modèle et δxs est la fonction de Kronecker de xs.

Modèle Y X

(a) Champ de Markov caché à bruit indépendant. Y X (b) Champ de Markov couple convolutif. Figure 5.1 – Graphes de dépendances dans le cadre d’un 4-voisinage. Les arêtes en couleur sont les arêtes additionnelles par rapport au modèle de champ de Markov caché à bruit indépendant. La distribution p(ys|xs, xNs ) régit la manière dont les classifications X influencent l’observation Y. De manière générique, nous l’écrivons : p(ys|xs, xNs ) = gxs,xNs (ys). (5.5) Le choix de la fonction g dépend notamment du modèle de bruit souhaité, et donc de l’application recherchée. Dans la suite de ce chapitre, g permettra la prise en compte d’un phénomène de convolution dans la modélisation. 

Segmentation et mesure de confiance Segmentation bayésienne

La segmentation bayésienne des images peut être obtenue entre autres par les estimateurs du MAP [Geman et Geman, 1984] et du MPM [Marroquin et al., 1987]. Rappelons que l’expression du MAP est : xˆ MAP = arg max ω∈Ω |S| x p(X = ω|Y = y); (5.6) et que le MPM s’exprime ∀s ∈ S comme : xˆ MPM s = arg max ω∈Ωx p(Xs = ω|Y = y). (5.7) Le calcul de ces deux estimateurs repose sur la markovianité a posteriori du couple (X, Y) qui rend possible la simulation de p(X|Y = y). Ces deux estimateurs sont comparés dans la section 5.3. Mesure de confiance pour le MPM Nous nous intéressons à la détermination d’une mesure de confiance associée à la segmentation en chaque site s ∈ S. Une telle mesure peut aisément être déduite dans le cadre de la segmentation au sens du MPM. En effet, les estimateurs de Xs sont par construction les classes les plus probables par rapport à la distribution a posteriori p(xs|y). Le choix du MPM est une décision « dure » dans Ωx qui ne reflète pas la confiance avec laquelle la décision a été prise. En effet, nous pouvons rencontrer des situations variables, comme : 69 Chapitre 5. Champs de Markov couples convolutifs — le cas le plus favorable : la classe retenue est beaucoup plus probable que les autres ; — les cas ambigus, plus complexes : les probabilités a posteriori sont très proches entre les classes. Nous introduisons ici une mesure de confiance complémentaire du résultat de segmentation. Elle est notée u x et s’appuie sur la différence de probabilités estimée entre les classes retenues par le MPM et les autres classes. Nous avons ainsi ∀s ∈ S : u x s = min ω6=ˆxMPM s h p(Xs = ˆx MPM s |y) − p(Xs = ω|y) i (5.8) La carte de confiance résultante u x = (u x s )s∈S prend ses valeurs entre (segmentation très incertaine) et 1 (segmentation très sûre).2.3 Modèle d’observation Distribution du bruit Le choix d’un modèle d’observation permet notamment de spécifier la forme de gxs,xNs (ys) (5.5). Nous supposons que le bruit est de distribution normale multivariée : gxs,xNs (ys) ∼ N (µxs,xNs , Σ); (5.9) où µxs,xNs ∈ R Λ est un paramètre de moyenne et Σ ∈ R Λ×Λ est la matrice de covariance du bruit. Celle-ci est supposée identique pour toutes les classes. Nous supposons qu’elle est pentadiagonale et que les paramètres ne varient pas d’une composante de ys à l’autre 1 : Σ = σ 2 ρ1 ρ2 ρ1 ρ2 ρ2 ρ1 ρ2 ρ1 σ 2                           (5.) σ correspond à l’écart-type des intensités, et ρ1, ρ2 sont les paramètres de corrélation entre les éléments consécutifs des observations ys. Modèle de convolution Nous nous intéressons aux phénomènes de convolution, pour lesquels même en l’absence de bruit l’image présente une dégradation par rapport à la classification recherchée. Cette dernière s’exprime comme un mélange des contributions associées à xs et à xNs : µxs,xNs = fsµxs + X r∈Ns frµxr ; (5.) où µxs ∈ R Λ est la moyenne associée à la classe de xs dans Ωx. Ce mélange est pondéré par une fonction formée des coefficients f = (fr)r∈{s}∪Ns , qui représente la fonction d’étalement spatiale du chapitre 3. Notons que f ne dépend pas de s car le champ (X, Y) est stationnaire. Le modèle de champ de Markov couple que nous proposons peut ainsi permettre la prise en compte de phénomènes de convolution. Ces hypothèses sont issues de l’application aux images de l’instrument MUSE : le bruit est stationnaire spectralement, et présente des corrélations limitées spectralement (cf. chapitre 9) 5.2. Modèle Remarque 5.2.1. Dans (5.), si tous les termes (fr)r∈Ns sont nuls, le modèle devient un modèle de champ de Markov caché à bruit indépendant. Modèle de détection Nous nous intéressons à l’application de ce modèle dans un contexte de détection ; qui ne prend en général que deux possibilités en compte : la présence et l’absence d’un signal d’intérêt. Cela se traduit par une segmentation à K = 2 classes : — l’absence de signal, que nous associons à la classe ω, se manifeste par la présence de bruit seul : µω = Λ ; — la présence d’un signal associé à la classe ω1 correspond à une moyenne µ. Remarque 5.2.2. Ce cadre peut être enrichi dans le cadre de la segmentation, en prenant en compte différents niveaux d’atténuation dans le signal recherché. Cela peut permettre de modéliser K − 1 classes intermédiaires par µωk = k K µωK .2.4 Formulation alternative du modèle La présentation du modèle dans le contexte des champs de Markov couple s’est appuyée sur la markovianité du couple (x, y) pour détailler immédiatement les distributions p(xs, ys|xNs , yNs ). Dans cette partie, nous présentons une formulation différente de ce modèle. Par commodité, nous notons ici zs la valeur prise par i lorsque xs = ωi 2 , et le vecteur z = (zs)s∈S. En vectorisant z et y, le modèle des observations est : y = h(z ⊗ µ) + b (5.) où ⊗ est le produit de Kronecker, b ∈ R Λ|S| représente le bruit et h ∈ R Λ|S|×Λ|S| est l’opérateur de convolution : h = IΛ ⊗ f; (5.) où f ∈ R |S|×|S| représente la fonction d’étalement spatial. Pour restreindre la convolution à une région de 3 × 3 sites (c’est-à-dire {s} ∪ Ns), il faut rendre chaque colonne de f 9-parcimonieuse 3 . Dans le cadre du modèle présenté, f ne contient que ces 9 coefficients. Nous supposons que b est un bruit normal multivarié, de matrice de covariance Ξ ∈ R Λ|S|×Λ|S|. Nous supposons que le bruit n’est pas corrélé entre sites. La matrice Ξ est donc bloc-diagonale : Ξ = I|S| ⊗ Σ; (5.) où Σ est la matrice de covariance introduite en (5.9). Nous disposons de l’expression de la vraisemblance du modèle : p(y|z) ∼ N (h(z ⊗ µ), Ξ) (5.) Nous supposons de plus que p(Z) est une distribution de champs de Markov régulée par la distribution (5.4). L’expression de cet a priori et de la vraisemblance permet enfin de calculer la distribution a posteriori p(z|y) ∝ p(y|z)p(z). Ainsi, le problème de segmentation par CMco présenté dans ce chapitre peut être assimilé à un problème de déconvolution bayésienne d’images hyperspectrales, dans le cas où l’inconnue z est à valeurs dans {, 1} et a une distribution de champs de Markov.

Table des matières

Table des figures
Acronymes et notations
Introduction générale
1 Introduction
1.1 Images hyperspectrales et applications
1.1.1 Définition
1.1.2 Domaines d’application
1.2 Le traitement de données hyperspectrales
1.2.1 Reconstruction, fusion et démélange
1.2.2 Classification et détection
1.3 Cadre applicatif et démarches adoptées
1.3.1 Problématiques applicatives
1.3.2 Démarche et contributions
I Détection par tests d’hypothèses dans les images hyperspectrale
2 État de l’art sur la détection par tests
2.1 Introduction à la détection par tests d’hypothèses
2.1.1 Décision par tests d’hypothèses
2.1.2 Le problème de détection
2.1.3 Évaluer les détections
2.2 Détection supervisée
2.3 Détection non supervisée ou détection d’anomalies
2.4 Détection semi-supervisée
2.5 Bilan
3 Détection par tests d’hypothèses de sources ténues et étendues
3.1 Introduction
3.2 Modèles et tests de détection
3.2.1 Détection de sources brillantes
3.2.2 Détection de sources ténues
3.3 Extensions des modèles
3.3.1 Caractéristiques spatiales
3.3.2 Observations multiples
3.4 Qualification des probabilités de fausse alarme
3.5 Résultats numériques
3.5.1 Simulation d’images hyperspectrales
3.5.2 Performances par étape
3.5.3 Distributions des statistiques de tests
3.6 Stratégie de détection et performances
3.6.1 Stratégie de détection
3.6.2 Performances
3.6.3 Résultats sur les données réelles MUSE
3.7 Conclusion
II Modèles markoviens pour la segmentation d’images
4 Synthèse sur les modèles markoviens pour la segmentation d’images
4.1 Introduction aux modèles markoviens
4.1.1 Chaînes de Markov
4.1.2 Markovianité sur graphe
4.1.3 Champs de Markov
4.1.4 Arbres de Markov
4.2 Segmentation non supervisée d’images
4.2.1 Modèles de Markov cachés à bruit indépendant
4.2.2 Segmentation bayésienne
4.2.3 Estimation des paramètres
4.3 Modèles de Markov couples et triplets
4.3.1 Modèles de Markov couples
4.3.2 Modèles de Markov triplets
4.4 Conclusion
5 Champs de Markov couples convolutifs
5.1 Introduction
5.2 Modèle
5.2.1 Champs de Markov couples convolutifs
5.2.2 Segmentation et mesure de confiance
5.2.3 Modèle d’observation
5.2.4 Formulation alternative du modèle
5.2.5 Estimation des paramètres
5.3 Résultats numériques
5.3.1 Configuration expérimentale
5.3.2 Résultats comparatifs
5.4 Conclusion
6 Champs de Markov triplets orientés
6.1 Introduction
6.1.1 Contexte de travail
6.1.2 Segmentation bayésienne par champs de Markov triplets
6.2 Champs de Markov triplets orientés
6.2.1 Modèle
6.2.2 Mesures de confiance
6.2.3 Estimation des paramètres
6.3 Résultats numériques
6.3.1 Segmentation d’images de synthèse
6.3.2 Segmentation d’images réelles
6.4 Conclusion
7 Arbres de Markov triplets spatiaux
7.1 Introduction 5
7.2 Arbre de Markov triplet spatial
7.2.1 Modèle général
7.2.2 Segmentation au sens du MPM
7.3 Application à la segmentation d’images
7.3.1 Spécificités du modèle
7.3.2 Segmentation
7.3.3 Estimation des paramètres
7.4 Résultats numériques
7.4.1 Simulations selon le modèle AMTS
7.4.2 Performances
7.5 Conclusion
III Application aux données réelles MUSE
8 Problématique astronomique
8.1 Contexte cosmologique
8.1.1 Une brève chronologie de l’Univers jeune
8.1.2 Halos circum-galactiques et filaments inter-galactiques
8.2 L’instrument MUSE
8.2.1 La lumière entre l’espace et le capteur
8.2.2 Des capteurs à l’image hyperspectrale
9 Caractérisation du bruit dans les données MUSE
9.1 Évaluation des corrélations
9.1.1 Mesure des corrélations spectrales
9.1.2 Mesure des corrélations spatio-spectrales
9.1.3 Structures de corrélations entre spectres
9.2 Lois du bruit
9.2.1 Distributions empiriques
9.2.2 Mesure de l’adéquation par tests d’hypothèses
9.2.3 Estimation des paramètres
9.3 Conclusion
Applications aux données réelles MUSE
.1 Introduction
.2 Évaluation sur des données synthétiques
.2.1 Configuration expérimentale
.2.2 Performances
.2.3 Bilan
.3 Résultats sur les images réelles
.3.1 Les images MUSE Hubble ultra-deep field
.3.2 Objets isolés
.3.3 Objets doubles
.4 Conclusion
Conclusions, perspectives
Annexes
A Algorithmes pour les modèles de champs de Markov
A.1 Échantillonneur de Gibbs
A.1.1 Échantillonneur de Gibbs de la distribution a posteriori
A.1.2 Échantillonneur de Gibbs chromatique
A.2 Algorithmes de segmentation
A.2.1 Algorithme de Marroquin pour le calcul du MPM
A.2.2 Algorithme ICM pour l’estimation du MAP
A.3 Estimation des paramètres
A.3.1 Algorithme
A.3.2 Exemples de résultats
B Résultats additionnels
B.1 Champs de Markov triplets orientés : textures de Brodatz
B.2 Images hyperspectrales MUSE
B.2.1 Objets individuels
B.2.2 Objets doubles
Bibliographie

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *