Mémoire Online: Proposition d’une méthode de classification dans un environnement de robotique collective

Extrait du mémoire proposition d’une méthode de classification dans un environnement de robotique collective

5.4. Résultats de la simulation
5.4.1. Règles décelées
a) pour la première et la troisième solution monocritères
Pour faciliter l’interprétation des règles sensori-motrices, nous avons mis en œuvre un programme permettant d’interpréter graphiquement la table de consultation trouvée en fin du parcours de la recherche. Plus encore, une fois que nous avons mis la main sur les règles en question, nous avons conçu un autre programme pour vérifier que ces règles réalisent effectivement cette macro-tâche.
Autrement dit, une fois qu’on a trouvé les règles sensori-motrices par un processus apparenté au « reverse-emergence», et qu’on a pu les interpréter en déduisant des règles plus significatives (de haut niveau), nous avons appliqué un processus apparenté à l’émergence pour vérifier que ces règles sont réellement bonnes dans le contexte de notre macro-tâche.
Les règles qu’on a pu tirer en ce qui concerne la première et troisième solution, en relation avec les équations de fitness proposées, sont les suivantes :
– L’agent-robot dépose un objet, si son environnement contient au moins un objet de la même couleur que celui en sa possession, sinon il se déplace avec l’objet.
– L’agent-robot prend un objet, s’il est tout seul dans son environnement local, sinon il se  déplace.
Il va de soit que l’agent-robot prend un objet dans le cas où il n’en porte pas déjà un, et réciproquement, dépose un objet dans le cas où il en porte déjà un. On a pu constater aussi, qu’il y’a deux approches possibles :
– Approche optimiste : qui stipule que l’agent-robot (libre) ne prend pas un objet s’il y a au moins un autre objet de la même couleur dans son environnement local (s’il y a deux objets de même couleur dans son environnement local, l’agent-robot espère qu’il y’a formation d’une pile ou d’un Tas. Il prend dans ce cas celui qui ne leur ressemble pas, s’il existe dans la position qui reste, sinon il se déplace). Pour déposer un objet, l’agent-robot suit la même logique : il suffit de trouver un objet qui ressemble à celui en sa possession pour qu’il le dépose.
– Approche pessimiste : qui stipule que l’agent-robot ne prend pas d’objets seulement dans le cas où tous les objets de son environnement local sont de même couleur (dans tous les autres cas il prend un objet, il déduit qu’il n’y a pas de formation de pile ou de Tas). Pour déposer un objet en sa possession l’agent-robot doit trouver deux objets qui ressemblent à celui qu’il porte.
b) Pour la solution multicritères
Pour réaliser la tâche multicritères, les règles décelées pour la tâche monocritère restent valables.
Mais, au lieu de vérifier un seul critère pour prendre ou déposer un objet, on en vérifie plusieurs.
Dans le cas de l’exemple avec lequel on a travaillé, il s’agit de la « couleur » et de la « forme ».
Notons que pour la deuxième solution monocritère, les règles n’ont pas encore été décelées, puisque le processus de convergence n’a pas encore atteint un seuil significatif.
5.4.2. Résultats des expériences effectuées dans le cas monocritère
La décision prise par un agent-robot de prendre un objet de couleur donnée ou de déposer un objet de couleur donnée dépend en premier lieu du fait qu’il a en sa possession un ou non, et en second lieu de son environnement local.
Le choix de ces types de comportement est jusqu’ici arbitrairement naturel. Avec 2 comportements de base et une table de consultation de la taille de 500 entrées, il y a 2 500 tables de consultation possibles. Ce nombre est tout à fait grand. Mais, de bonnes solutions peuvent encore être trouvées.
On précise aussi que nos agents fonctionnent d’une façon complètement déterministe. À partir d’un état initial particulier, le système se déroule toujours de la même manière. Ce que nous présentons ici concerne les expériences menées pour la troisième solution monocritère (Pour les autres solutions le procédé est le même) : Nous avons utilisé une taille de population de P = 50, un nombre de  générations G = 150, un nombre d’individus retenus lors de l’opération de sélection K = 5, une probabilité de croissement P = 0.6, et une probabilité de mutation Pm = 0.005. Pour trouver de bonnes règles nous avons utilisé un monde bidimensionnel de taille 21 x 21 de 15 agents-robots, et de 10 objets de chaque couleur, trois couleurs, et un temps d’entraînement allant de T = 150 s, à 240s, un nombre de cellules impliquées dans le calcul de l’évaluation de fitness J = 9 et un nombre de conditions initiales aléatoires par évaluation de fitness I = 3. La figure Fig.5.3 montre un historique de convergence typique de l’AG ainsi appliqué dans le cas de la troisième solution monocritère.
Fig.5.3 A gauche un instantané du système arrivé à une fitness de 0.53, A droite, l’historique de convergence du même système dans le cas de la troisième solution monocritère. Pour un environnement de taille 21×21, contenant 15 agents, et 10 objets à classer de chaque couleur (rouge, bleu, ou blanc).
Notons que chaque population est entraînée trois fois avant son évaluation finale.
Il est à noter que le processus évolutionniste de convergence utilisé pour approcher l’une des solutions éventuelles est fractionné en phases : dans la première étape on a utilisé un temps d’entraînement de 120 s, après une quinzaine de générations on a augmenté ce temps pour atteindre  180 s, et pour les trente cinq dernières générations on a utilisé un temps de 240 s (voir fig 5.3). Ceci dans l’espoir d’accélérer la convergence. Partant du principe que plus on avance, et plus on se rapproche de générations prometteuses. Donc, il ne faut pas trop s’attarder au début (ceci reste à vérifier en comparant notre façon de faire avec celles proposées par d’autres auteurs tel que Barfoot et all.). Il est important de mentionner aussi que plus on avance vers l’optimum global, et plus on augmente le nombre d’entraînements pour chaque table de consultation. Ceci nous permet de stabiliser la solution trouvée dans le sens où on trouve une solution indépendante de l’état initiale de disposition des agents-robots et des objets (la raison précitée pour l’augmentation progressive du temps d’entraînement reste valable pour l’augmentation progressive du nombre d’entraînement : on a utiliser 3 entraînements par table de consultation dans les premières phase jusqu’à avoir atteint le seuil de fitness de 0.53, et 10 par la suite – on remarque que le seuil chut puis remonte timidement -.
On espère utiliser 30 expériences / table après avoir dépasser le seuil de 0.70).
A la fin de 150 générations, nous prenons la meilleure table de consultation de cette dernière génération produite par l’algorithme génétique adopté pour être notre solution partielle. La figure  Fig.5.4 montre quelques instantanés d’une classification partielle. À partir d’une première distribution aléatoire des objets, les agents commencent par former de petites piles pouvant contenir plus d’une couleur, qu’ils fusionnent par la suite pour former des piles plus importantes en taille, et contenant de moins en moins de variation de couleurs (la structure de classification commence à émerger).
Pour comprendre le comportement d’une telle table, nous avons entraîné nos agents-robots, dotés de cette dernière, une certaine durée en prélevant à chaque pas de temps variable ou fixe (importe peu)  la valeur de la fonction de fitness utilisée pour l’évaluation. Le résultat est présenté dans la figure (fig 5.4).
…….

Sommaire: Proposition d’une méthode de classification dans un environnement de robotique collective

Introduction générale
Chapitre I : Vie artificielle
I.1. Historique
I.2. Définition de la vie artificielle
I.3. Automates cellulaires
I.4. Jeu de la vie
I.5. Les insectes sociaux
I.6. Les robots
I.7. Le système classifieur
I.8. Animat
I.9. La morphogenèse
I.10. Principe de l’évolution
I.11. Emergence
I.12. Relation entre intelligence artificielle et vie artificielle
I.13. Conclusion
I.14. Références
Chapitre II : Auto-organisation, Adaptation & Apprentissage
II.1. Auto-organisation
II.1.1. Concept du système
II.1.2. Définition(s)
II.1.3. Caractéristiques des systèmes aut-organisés
II.1.4. La rétroaction
II.1.5. Les mécanismes de l’auto-organisation
II.1.6. Règles comportementales locales
II.1.7. L’auto-organisation et l’intelligence collective
II.2. Adaptation
II.2.1. Définition(s)
II.2.2. Système adaptatif
II.2.3. Architecture d’un système adaptatif
II.3. Apprentissage
II.3.1. Définition(s)
II.3.2. Méthodes d’apprentissage
II.3.2.1. Réseaux de neurones
II.3.2.2. Apprentissage par renforcement
II.3.2.3. Algorithmes génétiques (AG)
II.3.3. Estimation de la performance
II.4. Conclusion
II.5. Références
Chapitre III : Système multi-agents & Robotique collective
III.1 Système multi-agent (SMA)
III.1.1. Définitions
III.1.1.1. Définition d’un agent
III.1.1.2. Caractéristiques d’un agent
III.1.1.3. Système multi-agent
III.1.2. Dualité Agent/Organisation
III.1.2.1. Agent cognitif
III .1.2.2. Agent réactif
III.1.2.2.1. Exemples
III.2 Robotique collective
III.2.1. Motivations
III.2.2. Contrôle d’un robot
III.2.3. Contrôle d’un collectif de robots
III.2.4. Les insectes sociaux
III.2.5. La coopération en robotique collective
III.2.6. Un exemple de résolution de conflits : le compétition agressive
III.2.7. Un exemple de méthodologie en robotique collective : Cirta
III.3. Conclusion
III.4. Références
Chapitre IV : Problème de classification & solutions proposées en robotique collective
4.1. Introduction
4.2. Définitions de groupement, classification et tri
4.3. Les algorithmes de classification biomimétique
4.4. Problème de formation de Tas en robotique collective
4.4.1. Principe de fonctionnement réactif d’un robot mobile
4.4.2. Principe de l’approche évolutionniste utilisée
4.5. Problème de classification monocritère
4.6. Solutions proposées pour l’approche monocritère
4.6.1. Première solution
4.6.2. Deuxième solution
4.6.3. Troisième solution
4.7. Problème de classification multicritère
4.8. Solution proposée pour l’approche multicritère
4.9. Regroupement sélectif exclusif au mieux
4.9. Conclusion
4.10. Références
Chapitre V : Mise en œuvre & résultats de la simulation
5.1. Introduction
5.2. Mise en œuvre de la simulation
5.2.1. Mise en œuvre de la première solution monocritère
5.2.2. Mise en œuvre de la dixième solution monocritère
5.2.3. Mise en oeuvre de la troisième solution monocritère
5.2.4. Mise en oeuvre de la solution multicritère
5.3. Choix entre simulation synchrone et asynchrone
5.4. Résultats de la simulation
5.4.1. Règles décelées
5.4.2. Résultats des expériences effectuées dans le cas monocritère
5.4.3. Mise à l’échelle du nombre d’agents-robots
5.4.4. Mise à l’échelle du nombre d’objets
5.4.5. Mise à l’échelle de l’espace d’entraînement
5.5. Comparaison des règles trouvées avec celles décelées chez les fourmis
5.6. Problème de la boucle infinie
5.6. Conclusion
5.7. Références
Conclusion générale & perspectives
Annexe A (Environnement de simulation basé agents : NetLogo)
Annexe B (Glossaire)

Si le lien ne fonctionne pas correctement, veuillez nous contacter (mentionner le lien dans votre message)
Proposition d’une méthode de classification dans un environnement de robotique collective (3,26 MO) (Rapport PDF)
environnement de robotique collective

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Comments (1)