Robotique sous-marine et applications

L’eau représente 71% de la surface terrestre. Les milieux aquatiques, qu’ils soient marins ou qu’il s’agisse d’eaux terrestres (lacs, rivières, aquifères), sont un fantastique réservoir de ressources pour l’Homme (minerais, pétrole, alimentation, et l’eau elle-même). Mais si les milieux aquatiques constituent un écosystème d’une formidable richesse, ils sont également très fragiles et d’une grande complexité. Ils sont donc au centre de nombreux enjeux à la fois sociétaux, environnementaux, économiques, militaires et scientifiques. Ainsi de tout temps les hommes ont tenté de repousser leurs limites et d’aller toujours plus loin, levant l’un après l’autre les verrous scientifiques rendant l’impossible possible. L’une des premières problématiques fut de permettre à l’Homme de respirer sous l’eau. Ainsi en 1535, s’inspirant d’un design de Léonard de Vinci, Gugliemo de Lorena plonge sur les épaves de deux galions en utilisant une cloche de plongée. D’un principe relativement simple, elle utilise la pression de l’eau afin de maintenir l’air dans une cloche permettant au plongeur de respirer. L’homme comprit rapidement l’intérêt de pouvoir se déplacer sous l’eau pour explorer le milieu marin mais surtout à des fins militaires pour surprendre l’ennemi. Ainsi les cloches, incapables de se déplacer par elles-même, furent rapidement abandonnées au profit d’études pour réaliser un système capable de fournir une réserve d’air tout en se déplaçant sous l’eau. En 1776, David Bushnell conçoit une machine en forme d’œuf constituée de deux coques en bois assemblées ensemble et renforcées par des bandes d’acier. Propulsé par une hélice activée manuellement et capable de plonger en remplissant un petit réservoir d’eau puis en le vidant à l’aide d’une pompe manuelle (ballast), le vaisseau est baptisé Turtle. Les sous-marins sont nés. Les développements se poursuivent aboutissant à des engins de taille toujours plus imposante et abandonnant la propulsion manuelle au profit de la propulsion mécanique. Les deux Guerres Mondiales consacrent les sous-marins comme armes de guerre d’une redoutable efficacité. À la fin de la Seconde Guerre Mondiale, les techniques des militaires sont utilisées pour partir à l’exploration des grands fonds. En 1960, Jacques Piccard et Don Walsh atteignent le fond de la fosse des Mariannes à une profondeur de 10920 mètres à bord du Trieste [Lap06].

En parallèle, les avancées sur les systèmes de plongée ainsi que le développement des caméras et appareils photos étanches accélèrent le succès de la plongée afin de découvrir les richesses du « monde du silence ». Ainsi des années 40 à sa mort en 1997, Jacques-Yves Cousteau n’aura de cesse de parcourir les océans du globe afin de faire découvrir le milieu marin et sa fantastique richesse tout en nous révélant toute sa fragilité. Il sera d’ailleurs, avec ses équipes, à l’origine de nombreuses améliorations des techniques de plongée. Néanmoins, si l’Homme a été au centre de la conquête du monde sous-marin, il se révèle rapidement être le facteur limitant de son exploration. Dès 1841, le premier cas de décompression est répertorié. Les causes de celle-ci ne seront réellement comprises qu’à partir de 1878 et il faudra attendre 1908 pour que le principe des paliers de décompression soit proposé par Arthur Boycott, Guybon Damant et John Haldane.

Or les besoins d’exploration des milieux aquatiques sont de plus en plus grands afin de recueillir les données nécessaires à la compréhension de ces environnements, compréhension indispensable pour pouvoir exploiter au mieux leurs formidables ressources tout en préservant leur pérennité. Néanmoins les problèmes de sécurité nécessaires à l’envoi d’Hommes (plongeurs ou pilotes embarqués dans des sous marins) et les coûts qu’ils engendrent dans de tels milieux limitent les explorations. Ainsi l’utilisation de robots permet d’évoluer dans ces environnements tout en supprimant les contraintes liées à la présence d’un opérateur humain, facilitant ainsi la réalisation de nombreuses applications. Mais en contrepartie les robots doivent soit permettre une téléopération sécurisée (en assurant l’évitement des obstacles par exemple), afin d’atteindre les objectifs de mission, soit pouvoir eux-mêmes embarquer l’expertise de l’opérateur humain afin d’accomplir de manière autonome tout ou partie de la mission qui leur a été fixée.

Environnements aquatiques : enjeux, apports et défis de la robotique

Dans l’esprit du grand public, les robots sous-marins sont souvent considérés comme des engins imposants, tels que l’Epaulard [Ifr12] qui pèse plus de 20 tonnes, utilisés à des profondeurs importantes pour l’industrie pétrolière, des télécommunications ou pour l’étude des milieux océaniques. Si les applications sont nombreuses et importantes dans ce type d’environnements, nos travaux se situent dans le contexte applicatif des environnements faible fond (eaux terrestres, ports, littoral côtier) ou confinés (aquifères). En effet, dans ces milieux l’utilisation d’engins robotisés permet de répondre à de nombreuses problématiques scientifiques et commerciales. En outre, le faible volume navigable et la nécessité pour les utilisateurs de déployer une logistique légère imposent de recourir à des engins de faible encombrement et offrant une grande manœuvrabilité suivant les différents degrés de liberté du robot qui sont nécessaires à l’accomplissement des tâches à réaliser.

Nous allons présenter ici quelques exemples applicatifs illustrant les différents apports de la robotique dans ce contexte.

Les barrages sont utilisés afin de créer des retenues d’eau pour la production d’électricité ou l’irrigation, par exemple. Ils nécessitent un entretien fréquent afin d’éviter tout risque de rupture structurelle qui aurait des conséquences désastreuses. De fait, en France, les principaux barrages sont soumis tous les 10 ans à une inspection détaillée. Si auparavant cette inspection nécessitait une vidange complète du barrage afin de permettre une inspection minutieuse des parois, ce sont souvent des robots qui sont désormais utilisés afin de réaliser l’inspection [PBP00]. Cela nécessite que les robots puissent effectuer un suivi de paroi (c’est-à-dire de maintenir une orientation et une distance constante par rapport aux parois) tout en assurant un retour visuel satisfaisant pour permettre à l’opérateur de repérer tout dommage [MCC12]. Des caméras (possiblement complétées d’un plan laser pour améliorer l’évaluation des dimensions des anomalies) ou plus rarement un sonar à balayage sont utilisés pour observer la structure à inspecter et détecter les anomalies. Pouvoir suivre une trajectoire pour parcourir toute la surface du barrage et se positionner avec précision pour localiser plus facilement les anomalies sont également des sujets d’intérêt dans le cadre de cette application qui nécessitent l’utilisation d’une centrale inertielle (pour obtenir les orientations du robot) et d’un capteur de mesure de vitesse comme un Loch Doppler [KRRH09].

Une autre problématique est celle de l’envasement des barrages. Celui-ci provient du fait que les barrages modifient la circulation des sédiments dans les cours d’eau. De fait ceux-ci s’accumulent autour du barrage, réduisant le débit de l’eau, dégradant sa qualité ou diminuant la durée de vie du barrage [McC01]. Les robots permettent de surveiller plus facilement l’évolution du niveau d’envasement en effectuant des mesures. Celles-ci permettent en outre de construire des modèles de l’évolution de l’envasement et du transport des sédiments qui aident ainsi à prédire l’évolution de l’envasement d’un barrage et à améliorer sa gestion. Des relevés de profondeur effectués à l’aide d’un sonar sédimentaire permettent d’estimer l’épaisseur de la couche de sédiments.

Les canaux sont des cours d’eau, parfois artificiels, utilisés pour l’irrigation, le transport marchand mais également pour la navigation de plaisance. Dans chaque cas, il est important d’entretenir régulièrement les canaux afin de maintenir leur navigabilité et l’état des berges du canal. Ceci permet soit de maintenir un débit important pour les canaux d’irrigation soit d’assurer une navigation sécurisée pour les bateaux. Or les canaux peuvent être comblés par des dépôts sédimentaires ou par des objets abandonnés dans le canal tandis que les berges dans les canaux de navigation peuvent être endommagées par le phénomène de batillage, c’està-dire par l’effet des vagues produites dans le sillage des bateaux à moteur. Des berges trop fragiles peuvent ensuite s’effondrer perturbant la navigation dans le canal. Mais l’entretien nécessite souvent de vider une portion de canal afin de vérifier son état puis d’entreprendre des opérations de nettoyage ou de réparation des berges si cela s’avère nécessaire [Clé09].

Table des matières

Introduction
I Contexte et état de l’art
1 Robotique sous-marine et applications
1.1 Environnements aquatiques : enjeux, apports et défis de la robotique
1.2 Les différents types de robots sous-marins
1.2.1 Les ROVs
1.2.2 Les AUVs
1.3 Entre ROV et AUV : Le Jack
1.3.1 Notations
1.3.2 Le Jack
1.4 Points clés du chapitre
2 Contrôle de robots : modularité et stabilité
2.1 Stabilité d’un contrôleur
2.1.1 Systèmes linéaires
2.1.2 Systèmes non linéaires
2.2 Description modulaire d’une loi de commande
2.2.1 Contrôle avec commutations
2.2.2 Modularité entre contrôleur et loi de mise à jour des paramètres
2.2.3 Les approches basées sur le Motion Description Language
2.3 Modélisation de systèmes et modularité
2.3.1 Simulink
2.3.2 Modelica
2.4 Conception modulaire de logiciel de contrôle en robotique
2.4.1 Middlewares robotiques
2.4.2 Architectures de contrôle
2.4.3 Approches avec lien entre automatique et génie logiciel
2.5 Points clés du chapitre
3 Positionnement
II Description modulaire d’un contrôle : concepts et entités manipulées
4 Connaissance et modularité, vers quelle représentation ?
4.1 La connaissance
4.1.1 Qu’est-ce que la connaissance ?
4.1.2 Un exemple d’utilisation de la connaissance en robotique : une loi de commande
4.1.3 Critères clés pour notre représentation de la connaissance
4.2 Concepts et Définitions
4.2.1 Les Entités Composables
4.2.2 Interface et Paramètres d’Interface
4.2.3 Physique
4.2.4 Atomes
4.2.5 Domaines de connaissance
4.2.6 Contraintes
4.2.7 Connaissances Externes
4.3 Points clés du chapitre
5 Compositions ou comment lier les Atomes ensemble
5.1 Compositions entre Atomes et entités structurantes
5.1.1 Liens
5.1.2 Compositions
5.1.3 Molécules
5.1.4 Alternatives
5.1.5 Graphes d’Association de Connaissances
5.2 Une loi de commande sous forme de Graphe d’Association de Connaissances
5.3 Points clés du chapitre
III De la description du contrôle à son implémentation
6 Etude des contraintes
6.1 Vue générale de la phase d’étude des Contraintes
6.2 Structuration du Graphe d’Association de Connaissances
6.2.1 Vers un graphe fait d’Atomes
6.2.2 Allègement de la Composition
6.2.3 Séparation des Entités sur la base des couplages temporels
6.3 Diffusion des Contraintes
6.3.1 Structuration du Graphe en Blocs
6.3.2 Fonctions de diffusion des Contraintes
6.4 Valuation des propriétés et paramétrage de l’implémentation
6.5 Implémentation de cette approche
6.6 Points clés du chapitre
7 Projection sur un Middleware, l’exemple de ContrACT
7.1 ContrACT
7.2 Règles de projection
7.2.1 Entités dont l’exécution a une Contrainte « Constant »
7.2.2 Entités dont l’exécution a une Contrainte « Sporadique »
7.2.3 Connaissances Externes
7.2.4 Entités dont l’exécution a une Contrainte « Périodique »
7.2.5 Alternatives
7.2.6 Liens
7.2.7 Paramètres temporels
7.3 Points clés du chapitre
Conclusion

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *