Les réseaux de neurones artificiels (RNA)

Les réseaux de neurones artificiels (RNA) : 

Un réseau neuronal artificiel est un système basé sur le réseau neuronal biologique, tel que le cerveau. Le cerveau a environ 100 milliards de neurones qui communiquent entre eux, grâce à des signaux électrochimiques. Les neurones sont connectés entre eux par l’intermédiaire de jonctions appelées synapses ,Chaque neurone reçoit des milliers de connections recevant en permanence des signaux d’entrée. Si l’addition de ces signaux dépasse un certain seuil une réponse est envoyée à travers l’axone.

Le neurone artificiel (neurone informatique) est un petit modèle statistique à lui tout seul. Il doit accomplir deux tâches:
• La synthèse des informations qui lui sont fournies ;
• La transformation (souvent non linéaire) de cette information en une information nouvelle.

L’objectif d’un réseau neuronal est de créer un modèle qui relie les sorties et les entrées en utilisant une base de données historique de telle manière qu’il puisse ensuite produire des sorties quand celles-ci sont manquantes. Un « RNA » a une structure parallèle constituée de nombreux neurones. Il comprend:
• Une couche d’entrée qui reçoit les données ;
• Une couche de sortie à laquelle sont envoyées les données calculées;
• Une ou plusieurs couches cachées reliant les couches d’entrées et de sortie. Selon l’architecture choisie, tous les neurones ou une partie des neurones dans une couche sont connectés avec tous ou une partie des neurones des couches adjacentes. Le nombre de couches cachées et le nombre de neurones par couche dépend du modèle spécifique, de la vitesse de convergence, des capacités de généralisation, du processus physique et des données d’entraînement que le «RNA» simulera.

Il y a deux problèmes essentiels concernant la mise en œuvre du « RNA » : le choix de sa taille (nombre de couches et nombres de neurones sur chaque couche) et l’obtention des poids synaptiques optimaux. Un nombre insuffisant de neurones cachés cause des difficultés durant la phase d’apprentissage, alors qu’un nombre excessif de neurones conduit à des temps d’apprentissage trop importants avec une amélioration marginale au niveau des résultats et l’estimation des poids synaptiques est plus difficile. Pour déterminer la taille optimale, la méthode consiste habituellement à réaliser plusieurs essais et d’estimer à chaque fois les erreurs d’appréciation. Une des propriétés des « RNA » est leur capacité à apprendre de leur environnement et à améliorer leurs performances à travers des processus d’apprentissage. L’apprentissage se traduit par des changements au niveau des poids synaptiques connectant les neurones d’une couche à l’autre. Le but est d’atteindre une égalité entre les données de sortie estimées et mesurées. Il est donc nécessaire de choisir l’algorithme d’apprentissage et de définir la part des données qui sera utilisée dans la phase d’apprentissage par rapport au nombre total de données disponibles. Les différentes étapes dans la mise en place d’un « RNA » optimisé consistent à sélectionner:
• une structure de « RNA »;
• un type de fonction de transfert;
• la taille du ‘RNA’ (nombre de couches et nombres de neurones par couche);
• l’algorithme d’apprentissage;
• la part de données apprentissage/test ;
• les données d’entrée.

Historique des réseaux de neurones : Brièvement, les premières recherches remontent à la fin du 19èmeet au début du 20èmesiècle. Elles consistent en de travaux multidisciplinaires en physique, en psychologie et en neurophysiologie par des scientifiques tels Hermann Von Helmholtz, Ernst Mach et Ivan Pavlov. A cette époque, il s’agissait de théories plutôt générales sans modèle mathématique précis d’un neurone. La naissance effective du domaine des réseaux de neurones artificiels remonte aux années 1940 avec les travaux de Warren McCulloch et Walter Pitts qui ont montré qu’avec de tels réseaux, on pouvait, en principe, calculer n’importe quelle fonction arithmétique ou logique. Vers la fin des années 1940, Donald Hebb a ensuite proposé une théorie fondamentale pour l’apprentissage .

La première application concrète des réseaux de neurones artificiels est survenue vers la fin des années 1950 avec l’invention du réseau dit «perceptron» par Frank Rosenblatt qui avec ses collègues ont construit un réseau et démontré ses habilités à reconnaître des formes. Malheureusement, il a été démontré par la suite que ce perceptron simple ne pouvait résoudre qu’une classe limitée de problème. Environ au même moment, Bernard Widrow et Ted Hoff ont proposé un nouvel algorithme d’apprentissage pour entraîner un réseau adaptatif de neurones linéaires, dont la structure et les capacités sont similaires au perceptron. Vers la fin des années 1960, un livre publié par Marvin Minsky et Seymour Papertont remis en cause l’emploi de cette technique dans le domaine des réseaux de neurones vus qu’ils ont démontré les limitations des réseaux développés par Rosenblatt et WidrowHoff. Beaucoup de gens ont été influencés par cette démonstration qu’ils ont généralement mal interprétée. Heureusement, certains chercheurs ont persévéré en développant de nouvelles architectures et de nouveaux algorithmes plus puissants. En 1972, TeuvoKohonen et James Anderson ont développé indépendamment et simultanément de nouveaux réseaux pouvant servir de mémoires associatives. Également, Stephen Grossberg a investigué ce qu’on appelle les réseaux auto-organisés.

Dans les années 1980, une pierre d’achoppement a été levée par l’invention de l’algorithme de rétro propagation des erreurs. Cet algorithme est la réponse aux critiques de Minsky et Papert formulées à la fin des années 1960. C’est ce nouveau développement, généralement attribué à David Rumelhart et James McClelland, mais aussi découvert plus ou moins en même temps par Paul Werbos et par Yann LeCun, qui a littéralement ressuscité le domaine des réseaux de neurones. Depuis ce temps, c’est un domaine où se développe constamment de nouvelles théories, de nouvelles structures et de nouveaux algorithmes .

Domaines d’application des réseaux de neurones :Les réseaux de neurones servent aujourd’hui à toutes sortes d’applications dans divers domaines. Nous citerons :
• Traitement d’images : reconnaissance de caractères et de signatures, compression d’images, reconnaissance de forme, cryptage, classification, etc. ;
• Traitement du signal : filtrage, classification, identification de source, traitementde la parole ;
• Contrôle : commande de processus, diagnostic, contrôle qualité, asservissement, des robots, systèmes de guidage automatique des automobiles et des avions ;
• Défense : guidage des missiles, suivi de cible, reconnaissance du visage, radar, sonar, lidar, compression de données, suppression du bruit ;
• Optimisation : planification, allocation de ressource, gestion et finances, etc. ;
• Simulation : simulation du vol, simulation de boîte noire, prévision météorologie que, recopie de modèle.

Table des matières

Introduction générale
Chapitre I : Etat de l’art sur les techniques de contrôle des machines asynchrone
I.1 Introduction
I.2 Commande par flux oriente
I.3 La logique floue
I.3.1Définition et historique
I.3.2 Intérêt et utilisation de la logique floue
I.3.3 Utilisation de la logique floue
I.4 Les réseaux de neurones artificiels (RNA)
I.4.1 Historique des réseaux de neurones
I.4.2 Domaines d’application des réseaux de neurones
I.4.3 Architecture des réseaux de neurones artificiels
a. Les réseaux de neurones non bouclés
b. Les réseaux bouclés
I.5 Neuro-Flou
I.5.1 Introduction
I.5.2 Définition du neuro-flou
I.5.2.1Avantages et inconvénients
I.5.3.2Méthodes des combinaisons neuro-floue
A. Première méthode
b. Deuxième méthode
c. Troisième méthode
I.6 Commande avec le mode de glissement
I.6.1 Historique
I.6.2 définition et nécessite technique de la commande avec le mode de glissement
I.6.3 Conception de l’algorithme de commande par mode de glissement
a. Choix de la surface de glissement
b. Conditions de convergence
b.1 La fonction discrète de commutation
I.6.4 Théorie de la commande
I.7 Algorithmes génétiques
I.7.1 Terminologie
I.7.2 Fonctionnement général des algorithmes génétiques
I.7.3 Description
I.8 Conclusion
Chapitre II : Commande vectorielle directe et indirect d’une MADA
II.1 Introduction
II.2 Machine Asynchrone à Double Alimentation
II.3. Modes de fonctionnement de la MADA
II.4 Modélisation
II.4.1 Hypothèses simplificatrices pour la modélisation de la MADA
II.4.2 Modèle triphasé de la MADA
II.4.2.1 Représentation de la machine dans l’espace électrique
II.5 Modèle de la MADA dans le repère dq
II.5.1 La transformation de Park
II.6 Choix de référentiel dq
II.7 Mise sous forme d’équation d’état
II.8 la Commande Vectorielle
II.8.1 Commande vectorielle directe
II.8.2 Modèle de la MADA dans le repère de Park
II.8.3 la commande vectorielle directe des puissances
II.8.3.1Technique d’orientation du flux
II.8.4Commande vectorielle indirecte
II.8.4.1 la commande vectorielle indirecte des puissances
II.9Alimentation de la MADA
II.10 Conclusion
Chapitre III : Commande flou directe et indirecte d’une MADA
III.1.Introduction
III.2.Principe de la logique floue
III.3.Notion de base et connaissance préliminaire
III.3.1.Ensemble flou
III.3.2.Variables linguistiques
III.3.2.Fonction d’appartenance
III.3.3.Intervalles d’inférence
III.4.Opérateurs de la logique floue
III.4.1.Opérateur ET (Intersection floue)
III.4.2.Opérateur OU (Union floue)
III.5.Description d’une commande par la logique floue
III.5.1.Interface de Fuzzification
III.5.2.Base des règles
III.5.3.Mécanisme d’inférence flou
III.5.4.1.Interface de Défuzzification
III.6.Application de la logique floue pour le réglage de vitesse de laMADA
III.7.Les résultats de simulation
III.8.Conclusion
Conclusion Générale

Cours gratuitTélécharger le document complet

 

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *