Définition de l’Imagerie par Résonance Magnétique

Imagerie par Résonance Magnétique (IRM)

L’imagerie par résonance magnétique  produit des images par magnétisation du patient dans un tunnel formé d’un aimant très puissant qui émet des ondes de radiofréquence (RF) courtes de 46 MHz faisant résonner des protons mobiles (noyaux d’hydrogène) dans les graisses, les protéines et l’eau. Les protons produisent des échos de RF quand leur énergie par résonance est libérée. Grâce à des algorithmes mathématiques complexes, leur densité ainsi que leur localisation peuvent être converties en image matricielle  .

Spectroscopie en imagerie par résonance magnétique (IRMS)

Cette technique évalue la fonction du cerveau vivant. Elle tire avantage du fait que les protons qui se situent dans différents environnements chimiques possèdent des propriétés de résonance légèrement différentes (déplacement chimique). Pour un volume de cerveau donné, la répartition de ces résonances de protons peut être visualisée sous forme de spectre[1].

IRM fonctionnelle (IRMf)

L’IRM fonctionnelle (IRMf) est une imagerie indirecte de l’activité cérébrale bassée sur la détection des variations locales de flux d’oxygénation du sang secondaire à l’activité neuronale .Elle permet l’étude en totale innocuité de l’organisation finctionnelle du cerveau normal et pathologique  .Chaque étude repose su la comparaison de plusieurs états d’activité différents .L’imagerie Echo_Planar est la technique de choix car elle permet d’explorer le cerveau entier à une cadence rapide.Les carte d’activation cérébrale sont établies à partir de l’analyse statistique des changements locaux du signal .L’IRMf est en train de devenir un outil essentiel dans le bilan neuro_fonctionnel de nombreux patients neurochirurgicaux,ainsi qu’une méthode unique pour étudier le fonctionnement cérébrale normal chez l’adulte et l’enfant. Les aimants à puissance de champ magnétique élevée apportent évidemment de meilleurs contraste et résolution spatiale. Les images IRM des microvaisseaux acquises à 8 T permettent une comparaison rapprochée avec l’histologie ; cela a des conséquences importantes pour le traitement des lésions de reperfusion, la physiologie des tumeurs solides et l’angiogenèse. Il y a toutes les raisons de croire que les efforts entrepris pour élargir les applications avec les champs magnétiques de puissance élevée ouvriront de nouvelles voies dans ce qui semble être un domaine d’applications cliniques potentielles sans fin.

Radiographie par rayon X 

Le rayon X est un rayonnement électromagnétique composé de photons de 5 picomètres à 10 nanomètres. Utilisé dans la cristallographie et l’imagerie médicale, il fut découvert en 1895 par le physicien Wilhelm Röntgen. La radiographie est une technique d’imagerie médicale, qui est apparue avec la découverte des rayons X, elle possède un intérêt diagnostique majeur dans de nombreux domaines de la médecine. Utilisant les rayons X, elle est basée sur leur capacité de traverser la matière.

Principe de la radiographie

On projette un faisceau de rayons X en direction de la partie du corps humain que l’on souhaite examiner . Les rayons traversent alors le patient et viennent impressionner un film photographique situé derrière lui. Leur densité dépend de la matière traversée (tissus, muscles ou os). Les rayons X traversent en effet facilement les cavités creuses de l’organisme ou les tissus mous, mais sont arrêtés par les os, les dents, qui possèdent une densité plus importante [4]. Ces variations de densité sont à l’origine des variations de couleurs sur le film photographique. Les structures osseuses apparaissent plus claires et les organes moins denses apparaissent eux plus sombres.

Ces variations de couleurs permettent en cancérologie de localiser des tumeurs, qui apparaissent plus foncées, ou d’observer des fractures osseuses.

Tomodensitométrie

Toutes les techniques radiographiques standard ont pour limite la représentation bidimensionnelle de structures tridimensionnelles, l’image radiographique traditionnelle exprimant les coefficients d’absorption linéaire de tous les tissus traversés par le rayon X. La tomodensitométrie (TDM)  permet d’acquérir une série d’incidences radiologiques angulaires différentes, lesquelles sont traitées par ordinateur pour fournir une coupe d’épaisseur donnée. L’image de TDM est composée d’une matrice constituée d’éléments d’images (les pixels). Tous les tissus contenus dans un pixel atténuent les incidences radiologiques, ce qui entraîne un coefficient d’atténuation moyen du pixel. Ce dernier est comparé au coefficient d’atténuation de l’eau et inscrit sur une échelle (l’échelle de Hounsfield). Le coefficient de l’eau est de 0 unité Hounsfield (UH) ; celui de l’air est typiquement de −1000 UH ; de la graisse, d’environ −100 UH ; les tissus mous ont un coefficient de +20 à +70 UH ; celui de l’os dépasse habituellement les +400 UH .

Imagerie nucleaire

Historiquement, le champ de la recherche en médecine nucléaire a commencé en 1946 lorsque de l’iode radioactif a été administré en « cocktail atomique » pour le traitement du cancer de la thyroïde. Depuis cette époque, la médecine nucléaire a évolué .elle a été reconnue comme spécialité médicale par l’American Medical Association en 1971.[1] La radiologie diagnostique crée une image en faisant passer des radiations à travers le corps depuis une source extérieure, alors que la médecine nucléaire crée une image en mesurant les radiations émises depuis des traceurs absorbés par voie orale.

L’image est donc créée à partir des radiations émises par le patient. Dans l’ensemble, les dosages d’irradiation sont comparables, et varient en fonction du type d’examen . La médecine nucléaire diffère également de la plupart des autres modes d’imagerie en ce sens que les examens permettent de mettre en évidence la fonction physiologique d’une zone spécifique du corps. Parfois, cette information de type physiologique peut être fusionnée avec des TDM ou des IRM, qui sont des techniques d’imagerie davantage anatomiques ; il est ainsi possible de combiner les traits anatomiques et fonctionnels c’est pour fournir une imagerie à la fois physiologique et anatomique dont le but d établir un diagnostic .[1] Les deux principales techniques d’imagerie nucléaire sont : « Tomographie par Emission de Positon TEP » et « la Tomographie par Emission Mono photonique TEMP .

Tomographie par Emission de Positon TEP

La Tomographie par Emission de Positon TEP (ou aussi appelée « scintigraphie planaire » est un examen d’imagerie médicale réalisé dans un service de médecine nucléaire . Le principe est basé sur l’injection d’un traceur faiblement radioactif par la voix veineuse . Ce traceur ressemble au glucose et il se fixe au niveau des tissus qui consomment de grande quantité de ce sucre comme les tissus cancéreux, le muscle cardiaque ou le cerveau on émettant un positon. Le traceur qui est généralement utilisé est le Fluor 18 dont la durée de vie est inferieur à deux heures, permet d’émettre de façon temporelle des rayonnements que l’on peut suivre dans le corps du patient à travers une caméra TEP.

Tomographie par Emission Mono photonique TEMP

La Tomographie par Emission Mono photonique TEMP appelée SPECT (Single Photon Emission Computed Tomography en anglais) a été décrite pour la première fois par Ronald J .Jaszczak [1]. La TEMP est une technique d’imagerie nucléaire tomographique basée sur le même principe que la scintigraphie planaire mais permettant de réaliser des images tridimensionnelles. La TEMP utilise des isotopes qui se désintègrent en émettant directement un photon gamma qui sera recueilli par un gamma -caméra. Cependant ,pour diagnostiquer certaines maladies liées à des lésions internes, le médecin doit analyser des images médicales afin d’étudier l’évolution d’une tumeur donc nécessaire de connaître avec exactitude les changements survenus sur ces images médicales. Toutefois ,l’interprétation visuelle, n’est pas toujours sûre.C’est pour cela que le besoin d’une interprétation automatique offre une vraie aide aux médecins dans leur prise de décision parceque pour une identification et un diagnostic fiables, dans le domaine médical, la précision est primordiale Une aide automatisée est demandée à l’interprétation de l’image.Donc elle développera les algorithmes d’intelligence artificielle mais la partie qui pose le plus de problèmes et qui s’avère la plus difficile à automatiser c’est la segmentation .

Table des matières

Introduction générale
1.Contexte générale
2.Problématique
3 .Organisation de manuscrit
CHAPITRE 1 : contexte médical
1 .Introduction
2.Anatomie du corps humain
2.1.Les lésions
3.Modalités d’acquisition
3.1. Définition de l’Imagerie par Résonance Magnétique
3.1.1. La spectroscopie en imagerie par résonance magnétique
3.1.2. Définition de l’IRM fonctionnelle
3.2 . La radiographie par rayon X
3.2.1 .Principe de la radiographie
3.3. La tomodensitométrie
3.4 .L’imagerie nucleaire
3.4.1. La Tomographie par Emission de Positon
3.4.2. La Tomographie par Emission Mono photonique
5. La segmentation
5.1 .Définition de la segmentation
5.2.Approche de segmentation
6.Conclusion
CHAPITRE 2 : Segmentation des images médicales avec l’approche hybride
1.Introduction
2.Etat de l’art
3.Approches de seuillage pour la segmentation de l’image
3.1. Le seuillage
3.1.1. Définition et notation
3.1.2. L’histogramme
3.2. Les méthodes globales
3.2.1.Méthode d’Otsu
3.2.2. Méthodes basée sur le principe de l’entropie
3.2.3. Méthode basée sur l’histogramme convexe
3.2.4. Méthodes basée sur l’approche de classification
3.3. Les méthodes locales
4.La segmentation par classification
4.1. La méthode ISODATA
4.2. L’algorithme ISODATA
5. La loi Bêta
5.1. La loi Bêta 1
5.2. La loi gamma
5.3. La loi Bêta 2
5.4.Estimation des paramètres
5.4.1. La moyenne empirique
5.4.2. La variance
5.4.3. Le mode
5. L’algorithme hybride
6. Conclusion
CHAPITRE 3 : Résultats et discussion
1.Introduction
2.Base de données
3.Interprétation par l’expert
4.Le prétraitement
4.1. Augmentation du contraste
4.2.Le filtrage
4.2.1.Filtre de gauss
4.2.2.Filtre médian
5.Environnement du programmation
6.Résultats et interprétation
7.Evaluation de l’algorithme proposé
7.1 .Segmentation par la méthode K-means
7.2.Sementation par le méthode FCM
8.Résultats de segmentation par les trois méthodes
9.Conclusion
Conclusion générale 

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *