Optimisation (équation aux dérivées partielles)

Optimisation

Un problème d’optimisation nécessite de fournir : — un modèle décrivant le problème : il s’agit généralement d’une équation aux dérivées partielles ; — un critère (ou des critères) que l’on cherche à minimiser ou à maximiser (c’est la fonction objectif, ou fonction coût) ; — un ensemble admissible de variables d’optimisation. Cet ensemble prend en compte les éventuelles contraintes que l’on impose aux variables. Dans ce document, visant un public plutôt mécanicien, nous nous intéresserons essentiellement à de l’optimisation de « structures », et nous envisagerons les cas suivants : — l’optimisation paramétrique où l’on dispose d’un nombre réduit de variables qui paramètrent la structure (par exemple l’épaisseur d’une plaque, l’orientation des plis d’un composite…). Nous verrons que des problèmes d’homogénéisation entrent dans ce cadre ; — l’optimisation géométrique : il s’agit du cas où l’on souhaite faire varier toute ou partie de la forme des frontières, mais sans changer la topologie de la pièce, i.e. sans ajouter ou supprimer de « trous » ; — l’optimisation topologique : c’est le cas le plus général d’optimisation de forme d’une structure. On cherche à trouver la meilleure forme possible sans restriction, i.e. quitte à modifier la topologie. Si l’on s’en sort en 2D en remarquant qu’une topologie est caractérisée par le nombre de composantes connexes des bords, cela est plus compliqué en 3D où il faut en plus tenir compte du nombre d’anses ou de boucles de la structure. Notre présentation de l’optimisation se concentrera sur l’approche continue, l’approche discrète n’étant que très brièvement mentionnée au paragraphe 16.1.7 afin de justifier notre choix de l’optimisation continue. Histoire Le mot « optimiser » a pour origine latine « optimum » qui signifie le meilleur. Il s’agit donc de faire les choses de la meilleure façon qui soit, ou encore de concevoir la meilleure des solutions possibles en terme d’objectif prescrit (minimisation ou maximisation) et répondant à un ensemble de contraintes. L’optimisation commence avec le calcul des variations, même si des exemples plus anciens peuvent être trouvés. Lié à la mythologie de la création de Carthage, résolu élégamment par la reine Didon, ce problème d’isopérimétrie, connu sous le nom de « Problème de Didon », est sans doute l’un des plus ancien problème d’optimisation dont on trouve trace.

Dans Catoptrica, Héron d’Alexandrie étudie la lumière

Didon Héron d’Alexandrie Fermat et ses réflexions. Il énonce ainsi les principes de réflexion de la lumière, principes guidés par la règle selon laquelle la nature choisit toujours le chemin le plus court. Cette étude de la propagation de la lumière s’est poursuivie par l’énoncé des principes variationnels par Pierre de Fermat et Christian Huygens. Le français énonce une règle fondamentale dans la recherche d’optimum : « Lorsqu’une grandeur, par exemple l’ordonnée d’une courbe, est parvenue à son maximum ou son minimum, dans une situation infiniment voisine, son accroissement ou sa diminution est nulle. » En juin 1696 dans Acta Eruditorum, Jean Bernoulli reprend un problème initialement posé par Galilée. Il s’agit du problème de la courbe brachistochrone que l’on peut formuler comme suit : quelle est la forme de courbe joignant deux points donnés dans un plan vertical, telle qu’un point matériel, soumis uniquement à la pesanteur et initialement sans vitesse, la parcourt en un temps minimal ? [Galilée pensait avoir résolu le problème et que la solution était un arc de cercle] Très rapidement, Leibniz propose une solution à Jean Bernoulli, mais sans qu’il reconnaisse la courbe en question. C’est Jean Bernoulli, qui dispose de deux solutions, qui reconnaît un arc de cycloïde commençant avec une tangente verticale. Tous deux décident de différer la publication de leurs solutions pour laisser à d’autres la possibilité d’aborder le problème. Celui-ci fut également résolu par Jacques Bernoulli, Newton, L’Hôpital et Tschirnhaus. Les méthodes imaginées pour sa résolution amenèrent à développer la branche des mathématiques qu’on appelle le calcul des variations. J. Bernouilli Euler Lagrange La solution de Jean Bernoulli était fondée sur une analogie avec la propagation de la lumière et le principe de Fermat, ainsi que la loi de Descartes. Celle de Leibniz, était fondée sur l’approximation de la courbe par des lignes brisées et était le premier pas vers l’équation d’Euler-Lagrange. Le second pas a été accompli par Euler qui a ébauché, à partir de considérations géométriques, la méthode des « petites variations » ; vers le milieu du dix-huitième siècle Joseph-Louis Lagrange a donné sa forme actuelle à la solution d’Euler. Legendre a complété l’équation d’Euler-Lagrange, qui est une condition du premier ordre, par la condition du second ordre qui porte son nom. Ces résultats ont été rassemblés par Lagrange dans sa Théorie des fonctions analytiques, parue en 1797, et dans laquelle on lit : « On peut les réduire à ce principe général. Lorsqu’une fonction de plusieurs variables doit être un maximum ou minimum, et qu’il y a entre ces variables une ou plusieurs équations, il suffira d’ajouter à la fonction proposée les fonctions, qui doivent être nulles, multipliées chacune par une quantité indéterminée, et de chercher ensuite le maximum ou minimum comme si les variables étaient indépendantes ; les équations que l’on trouvera combinées avec les équations données, serviront à déterminer toutes les inconnues ». La démarche est on ne peut plus claire, et c’est celle que nous suivrons Ces « quantités indéterminées » sont bien les multiplicateurs de Lagrange. Tout est dit ! Il revenait à Weierstrass, en 1879, de définir la notion d’extremum fort et d’établir la condition qui porte son nom. Les travaux de Jacobi et Hamilton, contemporains de ceux de Weierstrass, ont permis de donner sa forme définitive à la solution de Jacques Bernoulli déjà mentionnée. Les principaux résultats du calcul des variations classique avaient dès lors été obtenus. La formulation intégrale quant à elle a été peaufinée à la fin du xixe siècle et au début du xxe siècle. Les économistes s’intéresseront également à ces théories. En 1939, Leonid Kantorovich invente la programmation linéaire. La formulation générale des problèmes de programmation linéaire quant à elle sera finalisée en 1947 par George Dantzig, qui invente par ailleurs la méthode du simplexe. On parle aussi de « recherche opérationelle » pendant la seconde guerre mondiale, puis de programmation linéaire, et enfin de programmation non-linéaire. Le calcul des variations a connu un profond renouveau dans les années 1950 avec le développement de la théorie de la commande optimale, sous l’impulsion de Lev Pontriaguine et Richard Bellman. Le calcul des variations reste en mathématiques un domaine fort actif, et les mathématiciens qui ont contribué à son développement sont extrêmement nombreux.

Cours gratuitTélécharger le cours complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *