Modèle gaussien anisotrope à phase informée

Modèle gaussien anisotrope à phase
informée

La technique de déroulé linéaire de phase introduite au chapitre 4 a été appliquée à la séparation de sources au chapitre 5. Cette méthode était basée sur la minimisation d’une fonction de coût pénalisant l’écart entre modèle et mélange observé, et l’information sur la phase provenant du modèle sinusoïdal était introduite dans l’algorithme via son initialisation. Ce type d’approche souffre néanmoins de deux écueils. Tout d’abord, l’ensemble des sources estimées ne constitue pas un modèle conservatif (la somme des estimées n’est pas égale au mélange observé). En outre, nous avons constaté dans le cas non-Oracle (où les spectrogrammes ne sont plus connus) une baisse des résultats, qui est due à une contrainte trop forte sur les amplitudes. Les modèles probabilistes sont des outils adaptés à l’injection de connaissance préalable sur les paramètres que l’on cherche à estimer. Ils permettent donc d’éviter ces deux écueils, puisque l’on peut alors introduire une certaine incertitude sur les paramètres. La plupart des modèles probabilistes de sources, comme Févotte et al. (2009), sont basés sur une hypothèse d’uniformité de la phase. Cette hypothèse est vérifiée lorsqu’on considère que tous les points TF sont indépendants, et qu’on ne tient pas compte de la structure de la phase Parry et Essa (2007). Néanmoins, comme le suggère le modèle de phase introduit dans le chapitre 4, introduire des dépendances entre phases de points TF successifs améliore la qualité des signaux reconstruits. Dans ce chapitre, nous proposons un modèle probabiliste de mélange dans lequel les phases ne sont plus des variables aléatoires uniformes. Les principales contributions de ce chapitre ont fait l’objet d’une publication à la conférence ICASSP 2017 Magron et al. (2017a). Dans la section 8.1, nous introduisons un nouveau modèle de mélange basé sur la distribution de Von Mises pour représenter la phase. Nous approchons ensuite dans la section 8.2 celui-ci par un modèle gaussien équivalent, plus simple à manipuler. Dans la section 8.3, nous montrons expérimentalement le potentiel de ce modèle pour la séparation de sources musicales. Enfin, nous concluons dans la section 8.4.

Modèle de Von Mises

 Nous proposons dans cette partie d’introduire un modèle de mélange basé sur la loi de Von Mises pour représenter les phases. 8.1.1 Modèle de sources On raisonne dans un point TF (f, t) donné, tous les points étant supposés indépendants. Ainsi, on retire les indices f et t dans ce qui suit afin de clarifier les écritures. Le mélange X est égal à une somme de sources Zk. Nous supposons les modules Vk des sources estimés au préalable (par une NMF par exemple) ou bien connus (ils sont déterministes dans ce modèle). Ainsi, sous forme polaire, on a, ∀k : Zk = Vke iφk . (8.1) Notre idée consiste à considérer que les phases φk des sources sont des variables aléatoires qui sont relativement « proches » d’une première estimation (obtenue par déroulé linéaire) que nous notons µk. À la différence de l’approche probabiliste présentée dans le chapitre précédent, notre but ici n’est pas d’estimer au sens MAP la phase, mais d’obtenir un estimateur MMSE des variables Zk. Une façon naturelle de modéliser ce comportement serait de considérer que φk est une gaussienne centrée en µk. Néanmoins, comme la phase est une variable périodique, il est nécessaire d’utiliser une statistique circulaire. La loi normale périodique Mardia et Jupp (2000) est une possibilité, et elle a été étudiée notamment dans Agiomyrgiannakis t Stylianou (2009) pour modéliser la phase dans une application de rehaussement de la parole. Néanmoins, cette loi ne possède pas de densité analytiquement simple (elle s’écrit comme une somme de série infinie), aussi nous avons choisi d’utiliser son approximation : la loi de Von Mises Mardia et Zemroch (1975). Celle-ci est très populaire dans le domaine des statistiques circulaires, et ce pour trois raisons : — Sa densité de probabilité est simple à écrire analytiquement ; — Elle constitue une bonne approximation de la loi normale périodique ; — C’est la statistique circulaire à entropie maximale (à paramètres de localisation et de concentration donnés), ce qui garantit une certaine régularité et donc de bonnes propriétés mathématiques. La loi de Von Mises, notée VM(µ, κ) dépend de deux paramètres : un paramètre de localisation µ ∈ [0, 2π[ (µ peut être réel, mais on retient en général sa valeur principale), qui joue le rôle de moyenne, et un paramètre de concentration κ ∈]0, +∞[ qui joue le rôle de l’inverse d’une variance

Verrous du modèle

 Connaissant les Vk, et supposant les κk fixés (par exemple estimés au préalable sur une base d’apprentissage) et les µk estimés par déroulé linéaire, la tâche de séparation de sources consiste à obtenir un estimateur des composantes complexes Zk. Les estimateurs les plus naturels sont donnés par l’estimateur du maximum de vraisemblance, l’estimateur du maximum à postériori, et l’espérance à postériori de ces variables sachant les observations. Le problème est qu’en pratique, le calcul de ces estimateurs requiert nécessairement le calcul de la vraisemblance (la densité à postériori dépendant de la vraisemblance). Cela impose donc d’être capable d’estimer la loi de X, ainsi que la loi des Zk. Or, malgré nos efforts calculatoires, nous ne sommes pas parvenus à les obtenir sous une forme analytique simple. En effet, bien que la densité de φk soit aisée à écrire, la densité de X s’écrit sous la forme d’une intégrale d’ordre K − 1 à l’intérieur de laquelle apparaissent des sommes de séries de Bessel. L’estimation de l’espérance à postériori des variables Zk pourrait être effectuée par des techniques de simulation telles que les méthodes de Monte Carlo par chaînes de Markov (MCMC) Andrieu et al. (2003); Robert et Casella (2013). L’idée principale est d’approcher l’espérance par la moyenne empirique calculée à partir d’échantillons suivant la loi dont on cherche l’espérance (méthodes de Monte Carlo). Comme on n’a pas forcément accès à cette loi (ici la loi à postériori des sources), on génère des échantillons selon un mécanisme de chaîne de Markov qui est construite de sorte à « ressembler » à cette loi (c’est le principe de l’algorithme de Metropolis-Hasting). Néanmoins, là encore, les algorithmes MCMC nécessitent certaines informations comme la loi à priori sur les variables. Or, celle-ci n’est pas exprimable analytiquement sous forme simple. Ainsi, le modèle (8.3), malgré son apparente simplicité, semble trop complexe pour que les méthodes traditionnelles permettent d’obtenir un estimateur des sources. Par ailleurs, bien que des développements sur les méthodes MCMC pourraient permettre d’obtenir une solution, celles-ci sont basées sur la simulation et donc sur une procédure itérative, nécessitant un grand nombre d’itérations. Nous proposons donc de l’approcher par un modèle simplifié, qui permette d’effectuer un certain nombre de calculs, tout en conservant la contrainte de phase qui motive cette approche.

Cours gratuitTélécharger le cours complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *