Développement d’algorithmes pour la fonction NCTR

Au cours des derniers conflits, les tirs fraticides ont causé d’importantes pertes humaines et la destruction de matériels (chasseurs, avions de ligne, etc). De plus, les erreurs d’identification sont toujours un risque potentiel de pertes humaines civiles. Avoir la bonne identification d’une cible est donc indispensable pour éviter ces pertes. Aujourd’hui, deux types d’exploitation des données radars fonctionnellement très différents existent : les applications coopératives (IFF pour Identification Friend or Foe) et les applications non coopératives (NCTR pour Non Cooperative Target Recognition). Contrairement aux applications coopératives, les applications non coopératives sont réalisées sans collaboration de la cible. Deux niveaux de classification peuvent être définis. Le premier niveau que l’on appelle «classification » est un niveau où l’on souhaite distinguer des grandes classes de cibles (Hélicoptères, Avions de ligne, Chasseurs, etc…). Le deuxième niveau de classification est celui que l’on appelle plus communément « reconnaissance ». Dans le cadre de la thèse, nous nous intéressons à ce second niveau de classification. La reconnaissance est plus fine que la classification. Il s’agit en effet de distinguer à l’intérieur d’une grande classe de cibles, le modèle de la cible. Par exemple dans la classe des chasseurs, on cherchera à distinguer un Rafale, d’un Mirage 2000 ou d’un F-16. Dans le cas non coopératif, ces deux niveaux sont regroupés sous le terme fonction NCTR. Les applications NCTR utilisent principalement des radars de type sol-air ou air-air pour faire la reconnaissance.

Les applications de reconnaissance non coopérative deviennent aujourd’hui indispensables au regard des possibles défaillances des applications de reconnaissance coopérative. En effet, ces dernières partent du principe que la coopération est toujours garantie. Or cela n’est pas toujours le cas en raison notamment, de problèmes techniques, d’erreurs humaines ou le plus souvent, en cas de conflits, d’intentions hostiles de la part de la cible à identifier.

Un des enjeux majeurs d’une fonction NCTR est de fournir le plus souvent une décision unique garantissant le taux d’erreur  . En effet, il n’est pas acceptable de ne pas garantir le taux d’erreur devant la gravité des conséquences d’une erreur de reconnaissance (pertes humaines, de civils, etc…). Ainsi, l’objectif d’un traitement NCTR consiste à maximiser le taux de succès (ou mieux le taux de bonne identification) tout en ne dépassant pas un taux d’erreur fixé par les considérations opérationnelles. Pour être capable de maîtriser au mieux le taux d’erreur tout en maximisant le taux de succès, des traitements adaptés doivent donc être mis en oeuvre. Ces traitements doivent par exemple tenir compte de la variation de l’amplitude du signal radar pour chaque point de la signature de la cible, ce qui est généralement dû à des erreurs de mesure mais aussi dans certains cas, par exemple, à la rotation des moteurs. La prise en compte de tous ces phénomènes entraîne des puissances de calcul élevées.

En parallèle, l’avènement des nouvelles technologies GPU, et leurs applications au calcul scientifique et temps réel, permet de reconsidérer les contraintes historiques qui pèsent sur le développement de la fonction NCTR dans les radars. Ces contraintes concernent notamment l’accès aux puissances de calcul nécessaires pour réaliser en temps réel les calculs nécessaires à la reconnaissance de la cible. Les solutions actuelles pour la fonction NCTR sont dans l’obligation d’avoir recours à des simplifications (donc avec des performances limitées) pour les traitements NCTR temps réel. Pour reconnaître une cible, la signature radar est comparée avec des signatures existantes dans une base d’apprentissage. Du fait, des puissances de calculs induites, il y a une obligation de compresser l’information en réduisant la précision sur les signatures radars mesurées ou en réduisant le nombre de signatures utilisées dans la base d’apprentissage.

L’intérêt de la thèse réside dans la définition, la mise au point et l’évaluation de nouveaux traitements qui se rapprocheraient de l’algorithme optimal. Les technologies GPU rendent possible l’accès à des traitements optimaux (sans compression des données, c’est-à-dire de type « force brute ») au sens des performances pour les applications temps réel. L’architecture des processeurs graphiques (GPU) de nouvelles générations présente alors une architecture particulièrement bien adaptée à ce type d’algorithme massivement parallèle. Il est important de noter que ces nouveaux algorithmes d’identification doivent être définis en tenant compte des contraintes suivantes :
– Maîtriser le taux d’erreur en-dessous d’un seuil fixé par l’opérateur ;
– Maximiser le taux de succès.

Nos contributions durant la thèse portent donc sur deux axes majeurs :
– Le premier est la définition d’algorithmes de reconnaissance de cibles non coopératives respectant les contraintes énoncées cidessus ;
– Le deuxième est l’évaluation des gains que peuvent apporter la parallélisation sur GPU d’algorithmes de reconnaissance de cibles non coopératives.

D’un point de vue technique, la reconnaissance non coopérative peut être abordée par différentes approches : capteurs radar, ESM (Electronic Support Measures), acoustiques, infra-rouges, optroniques, etc… L’approche radar est très attractive parce qu’elle peut être utilisée pour des distances de plusieurs centaines de kilomètres, indifféremment de jour ou de nuit, et elle est relativement insensible aux variations des conditions climatologiques. Le radar est capable de fournir plusieurs paramètres physiques associés à la cible considérée tels que des paramètres cinématiques (altitude, vitesse, accélération, etc…), des paramètres comme la Surface Equivalente Radar (SER) ou la longueur de la cible mais également des paramètres de type spectre Doppler permettant d’analyser les parties mobiles d’une cible.

Pour pouvoir fournir ces informations de natures très différentes, la fonction NCTR repose sur l’exploitation de techniques très différentes. Chacune de ces techniques respecte néanmoins le même processus pour reconnaître une cible à partir de sa signature. En effet, le processus de reconnaissance implique toujours des tâches comme la construction de la base de données, la mesure de la signature de la cible, le conditionnement et l’extraction des attributs et au final, l’emploi d’un classifieur sur les attributs et la base de données pour reconnaître la cible.

La technique ISAR (Tait 2005, Moruzzis et al. 2004, van Dorp et al. 2012) est équivalente à la technique SAR (Synthetic Aperture Radar) sauf qu’elle utilise le mouvement rotationel de la cible (et les changements d’angle d’aspect) au lieu du mouvement du capteur radar. Cette technique permet d’obtenir une image transverse de la cible. C’est ce qu’on appelle l’ISAR 1D. Les images ISAR 1D sont issues du traitement des spectres Doppler des points brillants (ou diffuseurs) résultant du mouvement de la cible, les points brillants étant définis comme un point ou une surface élémentaire réfléchissant les ondes electromagnétiques. Si la cible tourne en azimut à une vitesse constante sur un petit angle, les points brillants vont se rapprocher ou s’éloigner du radar à une vitesse ne dépendant que de la position transverse de la cible. La rotation entraîne la génération de fréquences Doppler transverses dépendantes qui peuvent être triées par une transformée de Fourier. Cette opération est équivalente à la génération d’une antenne à ouverture synthétique formée par la sommation cohérente des sorties du récepteur.

L’ISAR 1D peut également être associée à la technique HRD pour obtenir une image 2D de la cible. L’axe radial est donnée par la technique HRD et l’axe transverse par la technique ISAR 1D. Cette combinaison des deux techniques NCTR est appelée ISAR 2D.

Table des matières

1 Etat de l’art
1.1 Fonction NCTR
1.1.1 Inverse Synthetic Aperture Radar (ISAR)
1.1.2 Jet Engine Modulation (JEM)
1.1.3 Définition du taux d’erreur, taux de succès et taux de bonne identification
1.2 Haute Résolution Distance (HRD)
1.2.1 Formes d’onde haute résolution
1.2.2 Obtention d’un profil distance HRD
1.2.3 Diffuseurs ou points brillants
1.2.4 Influence de l’angle d’aspect
1.2.5 Alignement des profils distance HRD
1.3 Méthodes de classification
1.3.1 Classification non paramétrique
1.3.2 Classification paramétrique
1.4 Espace de représentation
1.4.1 Profils distance haute résolution dans le domaine fréquentiel
1.4.2 Ondelettes
1.4.3 Représentations parcimonieuses
1.5 Conclusion du chapitre
2 Présentation des données et caractérisation statistique
2.1 Base de données
2.1.1 Données synthétiques
2.1.2 Données réelles
2.2 Visualisation simple de la base de données synthétiques
2.3 Etude statistique des matrices de covariance
2.3.1 Inertie des matrices de covariance
2.3.2 Volume des classes
2.3.3 Représentation graphique des données
2.4 Conclusion du chapitre
3 Algorithme des KPPV
3.1 Présentation générale
3.2 Première étape : calcul des métriques
3.3 Deuxième et troisième étapes : tri des métriques calculées à l’étape 1 et décision
3.4 Paramètres de réglage .
3.5 Performances de l’algorithme des KPPV
3.5.1 RSB = 30dB
3.5.2 RSB = 20dB
3.5.3 RSB = 15dB
3.5.4 Matrices d’acceptation (MA) ou matrice de confusion d’acceptation
3.6 Conclusion du chapitre
Conclusion

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *