LES RESEAUX DE NEURONES
Depuis la fin du XIXème siècle, le célèbre psychologue américain, William James (1842 – 1910), a déjà commencé à essayer de concevoir un cerveau artificiel dans son laboratoire de psychologie expérimentale. Son but était de l’associer à celui d’un être humain pour l’aider à son travail. Toutes ces études ont été poursuivies par des autres chercheurs après sa mort comme Mc Culloch et W. Pitts, en 1943, qui ont réussi la modélisation théorique des neurones, et ses fonctionnements biologiques. Le modèle conçu réalisait des fonctions assez simples comme les logiques, arithmétiques….
Avant, les psychologues étaient les premiers à être intéressés par cette étude de réseaux de neurones biologiques et artificiels. Comme D. Hebb en 1949, il a fait son expérience avec un animal pour donner des autres habitudes à celui-ci. Alors qu’enfin, il a proposé une loi correspondante à la modification de fonctionnement entre neurones. La réalisation des modèles efficaces a été effectuée quelques années plus tard.
Ce premier modèle était le « PERCEPTRON ». Puis vient ensuite le modèle « Adaptive Linear Element ou ADALINE». Après plusieurs recherches approfondies et de plus en plus améliorées, accompagnées d’une importante augmentation de nombres de chercheurs et de participants, on arrive actuellement à utiliser des modèles plus complexes et encore plus efficaces qu’à ceux utilisés auparavant. D’ailleurs, grâce à la rapidité de l’évolution de la technologie, les machines modernes sont plus performantes et ont une résolution très rapide par rapport à celles utilisées auparavant.
STRUCTURE BIOLOGIQUE DES NEURONES
Les réseaux de neurones sont formés de plusieurs mille milliards de neurones. De ce fait, ils forment l’élément de base du système nerveux central qui commande les comportements des autres systèmes. D’après les études histologiques des neurones, un neurone est formé d’un noyau, soma, comme toutes les cellules et de plusieurs branches pour communiquer avec les autres neurones. Ces branches sont classées en deux grandes catégories :
Les dendrites reçoivent les informations venant des autres neurones et les transmettent au soma pour être traitées. Elles sont alors les entrées d’un neurone.
Les axones sont les sorties d’un neurone. Ils prennent les informations déjà traitées par le soma et les renvoient aux autres neurones, aux alentours.
CARACTERISTIQUES TECHNIQUES
Les cellules sont très fragiles et pourtant très importantes pour tout être vivant. Alors que les neurones aussi sont des cellules. Donc il faut les protéger contre tous les phénomènes qui peuvent les détruire ultérieurement.
La caractéristique technique d’un neurone concernant les comportements électrostatiques est la plus étudiée dans ce domaine car il est très important de garder l’équilibre statique au niveau de la différence de potentiel entre les milieux extérieurs et les milieux intérieurs des cellules. Cette différence est de l’ordre de –60mV.
Le neurone libère des neuromédiateurs, appelés aussi «neurotransmetteurs », dans l’espace synaptique pour ouvrir des canaux ioniques sur les membranes axoniques quand le potentiel d’action est arrivé. Ce phénomène provoque un déséquilibre sur la polarisation et la dépolarisation. La différence de potentiel n’est plus stable. De ce fait, les ions Na+, que les cellules ont besoin pour maintenir cette stabilité, peuvent traverser les membranes à l’aide des canaux précédents jusqu’à ce que le potentiel passe à la valeur nulle.
Cette instabilité au niveau du potentiel est en fonction du temps, de valeur de l’ordre de quelques millième de seconde. Quand ce potentiel dépasse la valeur seuil, valeur limite de la stabilité, le potentiel croît très rapidement jusqu’à +60mV.
APPRENTISSAGE SUPERVISE (Règle d’apprentissage de Widrow-Hoff)
Cet apprentissage est une évolution de la loi de Hebb et c’est Widrow-Hoff qui l’a mis en œuvre. De ce fait, il y a une ressemblance entre les deux types d’apprentissage mais les données à présenter pour être analysées pour celui-ci nécessitent des résultats préétablis.
L’apprentissage supervisé permet de modéliser la relation entre les observations des entrées et ces résultats attendus que le réseau devra sortir. Autrement dit, le réseau va reconnaître qu’il y a des erreurs commises après ces observations et d’évaluer ces erreurs.
Dans ce cas, les bases d’exemples d’apprentissage se comprennent donc des entrées et des sorties en même temps et on peut dire alors par conséquent que l’apprentissage supervisé est plus fiable par rapport à celui du non supervisé.
Table des matières
INTRODUCTION
CHAPITRE 1 :GENERALITES SUR LES RESEAUX DE NEURONES
1 – 1 – Introduction
1 – 2 – Historiques
1 – 3 – Modèles neurophysiologiques des neurones
1 – 3 – 1 – Structures biologiques des neurones
1 – 3 – 2 – Caractéristiques techniques
CHAPITRE 2 :MODELISATIONS MATHEMATIQUES
2 – 1 – Caractéristiques d’un neurone artificiel
2 – 1 – 1 – Entrée
2 – 1 – 2 – Poids
2 – 1 – 3 – Fonctions de transfert
2 – 1 – 4 – Biais
2 – 1 – 5 – Sortie
2 – 2 – Structure générale
2 – 2 – 1 – La couche d’entrée
2 – 2 – 2 – La couche de sortie
2 – 2 – 3 – Les couches cachées
2 – 3 – Les types de connexions
2 – 3 – 1 – Connexion locale
2 – 3 – 2 – Connexion récurrente
2 – 3 – 3 – Connexion complète
CHAPITRE 3 :APPRENTISSAGE DE RESEAUX DE NEURONES
3 – 1 – Principe de l’apprentissage
3 – 2 – Apprentissage non supervisé (Loi de Hebb)
3 – 2 – 1 – Méthode
3 – 2 – 2 – Algorithme
3 – 2 – 3 – Exemple d’apprentissage
3 – 2 – 4 – Organigramme
3 – 3 – Apprentissage supervisé (Règle de Widrow-Hoff)
3 – 3 – 1 – Méthode
3 – 3 – 2 – Algorithme
3 – 3 – 3 – Exemple d’apprentissage
3 – 3 – 4 – Organigramme
3 – 4 – Apprentissage par pénalité/récompense (renforcement)
3 – 4 – 1 – Méthode
3 – 4 – 2 – Algorithme
3 – 4 – 3 – exemple d’apprentissage
CHAPITRE 4 :RESEAUX DE NEURONES SIMPLES ET MULTICOUCHES
4 – 1 – Perceptron
4 – 1 – 1 – Architecture
4 – 1 – 2 – Apprentissage et fonctionnement
4 – 1 – 3 – Algorithme d’apprentissage (sur l’opérateur logique ET)
4 – 1 – 4 – Perceptrons multicouches (PMC)
4 – 1 – 5 – Résolution de l’apprentissage de la fonction XOR
4 – 1 – 6 – Evaluation du perceptron monocouche
4 – 2 – Perceptron aléatoire ou réseau bayésien
4 – 2 – 1 – Méthode
4 – 2 – 2 – La loi normale
4 – 2 – 3 – La loi de Boltzmann
4 – 2 – 4 – Algorithme
4 – 2 – 5 – Evaluation du perceptron aléatoire
4 – 3 – Mémoire associative linéaire
4 – 3 – 1 – Mémoire auto-associative linéaire
4 – 3 – 2 – Mémoire hétéro-associative linéaire
4 – 4 – Réseaux de Hopfield
4 – 4 – 1 – Méthode
4 – 4 – 2 – Algorithme
4 – 4 – 3 – Système stable
4 – 4 – 4 – Exemple d’apprentissage pour 2 cellules d’entrées
4 – 4 – 5 – Evaluation du réseau de Hopfield
4 – 5 – Retro-propagation d’erreur (réseau à couches cachées)
4 – 5 – 1 – Architecture
4 – 5 – 2 – Méthode
4 – 5 – 3 – Algorithme
4 – 5 – 4 – Evaluation de la retro-propagation d’erreur
CHAPITRE 5 :APPLICATIONS
5 – 1 – Détections des lettres de l’alphabet
5 – 1 – 1 – Architecture
5 – 1 – 2 – Couche d’entrées
5 – 1 – 3 – Couche de sorties
5 – 1 – 4 – Fonction de transfert
5 – 1 – 5 – Apprentissage
5 – 1 – 6 – Phase de test et résultat
5 – 1 – 7 – Evaluation du résultat
5 – 1 – 8 – Amélioration
5 – 2 – Reconnaissances des formes
5 – 2 – 1 – Architecture
5 – 2 – 2 – Couche d’entrées
5 – 2 – 3 – Couche de sorties
5 – 2 – 4 – Apprentissage
5 – 2 – 5 – Phase de test
5 – 2 – 6 – Evaluation du résultat
CHAPITRE 6 :SIMULATION DES APPLICATIONS SOUS MATLAB
6 – 1 – Introduction
6 – 2 – Les fonctions utilisées pour les réseaux de neurones
6 – 2 – 1 – Les fonctions pour entrer les données
6 – 2 – 2 – Les fonctions pour créer un réseau
6 –3 – Simulation des applications
6 – 3 – 1 – Reconnaissance de forme
6 – 3 – 2 – Reconnaissance des lettres de l’alphabet
6 –4 – Amélioration avec l’interface « nntool »
6 – 4 – 1 – Détection des lettres
6 – 4 – 2 – Reconnaissance des formes géométriques
CHAPITRE 7 :IMPACTS ENVIRONNEMENTAUX
7 – 1 – introduction
7 – 2 – motivations
7 – 3 – avantages
7 – 4 – inconvénients
7 – 5 – mesures à prendre
7 – 6 – conclusion
CONCLUSION
BIBLIOGRAPHIE
ANNEXE