Historique de la commande MPC

Historique de la commande MPC

 Aperçu chronologique et application industrielle de la commande prédictive

La première notion de commande par prédiction a connu le jour vers l’année 1959 par Smith. Ce principe, appelé « Prédicteur de Smith » avait pour but de compenser l’effet de retard pur dans la boucle de commande notons que retard en approche systémique correspond au temps nécessaire pour le transport de matières ou d’énergie. En d’autre terme, elle consiste à prédire la sortie du système avec une avance égale au retard pur estimé L qui pourra après être comparée à la consigne. (voir fig A.1.1.).Cependant, cette méthode présentait aussi ses inconvénients d’être à la fois très sensible aux erreurs de modélisation et est incapable de stabiliser des procédés instables en boucle ouverte. Figure A.1.1. Principe du prédicteur de Smith Au début des années 1960, Propoï lui, s’est plutôt intéressé à la stabilité de l’approche par commande prédictive en se basant sur un modèle en utilisant la méthode de la programmation linéaire dont le principe est d’insérer dans l’algorithme de commande, un élément de prédiction de l’évolution de la sortie du procédé donnée par un modèle. Le calculateur détermine alors, à l’instant d’échantillonnage présent, la séquence de commandes à appliquer sur un horizon de prédiction. A la prochaine période d’échantillonnage, seule la première composante de cette séquence solution est effectivement appliquée au procédé et la résolution recommence de la même façon en prenant en compte les nouvelles mesures du procédé et ainsi de suite. Néanmoins, ce ne fut qu’au milieu des années 70 que la commande prédictive a été instaurée au sein de l’industrie grâce à l’utilisation du logiciel dénommé IDCOM, développé par Richalet et Al. Par ce fait, les premières applications de la commande prédictive ont été réalisées dans le domaine pétrolier et pétrochimique. En effet, jusqu’à nos jours, de nombreuses catégories et dénominations de la commande prédictive ont été proposées ; nous pouvons en citer quelques uns suivant l’évolution du principe de cette méthode prédictive :  Premièrement, le MPHC (Model Predictive Heuristic Control), encore dénommé MAC (Model Algorithmic Control) qui est une approche appliquée aux systèmes industriels multivariables et est basée sur des prédictions sur un horizon temporel 66 étendu, impose des trajectoires de référence pour les sorties et minimise la variance de l’erreur. Le modèle du procédé utilisé pour génèrer les valeurs prédites, sur tout l’horizon fixé est basé sur la réponse impulsionnelle.  Deuxièmement, le DMC (Dynamic Matrix Control) proposé par des ingénieurs de Shell, Cutler et Ramaker, reprend de nombreuses idées de IDCOM, mais les systèmes y sont représentés par leur réponse à un échelon. Cet algorithme est appliqué à des systèmes multivariables linéaires sans contraintes ainsi, l’erreur de poursuite est minimisée en spécifiant le comportement futur des sorties et les commandes optimales sont calculées par la méthode des moindres carrés.  Troisièmement, l’EHAC (Extended Horizon Adaptive Control) qui est une stratégie de commande prédictive pour les systèmes monovariables, utilise des modèles E/S pour maintenir la sortie future (calculée via la résolution d’une équation diophantienne) le plus près possible de la consigne pendant une période donnée au-delà du retard pur du système.  Quatrièmement, l’EPSAC (Extended Prediction Self-Adapted Control) introduit une commande constante pour un système non-linéaire et utilise un prédicteur sousoptimal à la place de la résolution de l’équation diophantienne ; l’article offre également une démonstration de stabilité.  Cinquièmement, le GPC (Generalized Predictive Control), basée sur un modèle de type CARIMA, introduit un horizon de prédiction sur la commande et agit conformément au principe de l’horizon fuyant. Elle peut être appliquée aux systèmes à non minimum de phase, aux systèmes instables en boucle ouverte ainsi qu’aux systèmes avec retards purs variables.  Sixièmement, le PFC (Predictive Functional Control) qui est un algorithme prédictif simple, utilisé surtout pour des systèmes SISO industriels rapides et/ou non linéaires. Il permet le réglage direct des paramètres (par exemple la constante de temps) associées au temps de monté donc pratique pour les ingénieurs. Cependant, son algorithme est peu performant pour cause de simplicité d’utilisation.  Septièmement, le CRHPC (Constrained Receding Horizon Predictive Control) qui propose de prendre en compte des contraintes terminales sous forme « égalité » sur la sortie sur un horizon fini au-delà de l’horizon de prédiction ;  Enfin, la MPC (Model Predictive Control) formulée dans l’espace d’état, utilise le formalisme de la représentation d’état pour faciliter l’analyse de la stabilité et de la robustesse. Ces différentes catégories de méthode prédictive citées sont considérées comme l’essence de la méthode prédictive proprement dite ; néanmoins, concernant son évolution dans le 67 domaine industrielle, on peut recenser quatre (4) générations de MPC si on se base sur l’évolution de son algorithme. Cette chronologie d’évolution est résumée par la figure suivante.

Algorithme de Levenberg Marquardt

L’algorithme de Levenberg-Marquardt, ou algorithme LM, permet d’obtenir une solution numérique au problème de minimisation d’une fonction, souvent non linéaire et dépendant de plusieurs variables. L’algorithme interpole l’algorithme de Gauss-Newton et l’algorithme du gradient. Plus stable que celui de Gauss-Newton, il trouve une solution même s’il est démarré très loin d’un minimum. Cependant, pour certaines fonctions très régulières, il peut converger légèrement moins vite. L’algorithme fut découvert par Kenneth Levenberg, puis publié par Donald Marquardt. C’est un problème qui se présente souvent en régression linéaire et non linéaire. A.2.1. Application à la méthode des moindres carrés Énoncé Son application principale est la régression au travers de la méthode des moindres carrés : étant donné un certain nombre de paires de données (ti, yi), on cherche le paramètre a de la fonction f(t|a) de sorte que la somme des carrés des déviations : soit minimale. Solution La procédure de l’algorithme est itérative. On part d’un paramètre initial, que l’on suppose « assez proche » d’un minimum, et qui constituera le vecteur p de départ. Dans beaucoup de cas, un paramètre de départ « standard », tel que p T =(1,1,…,1) fonctionnera sans problème. Dans certains cas, il n’y a convergence que si le vecteur de départ n’est pas trop éloigné de la solution. À chaque itération, on remplace p par une nouvelle estimation p + q. Afin de déterminer q, les fonctions fi(p + q) sont approchées en étant linéarisées : f(p + q) ≈ f(p) + Jq où on a noté J la jacobienne de f en p. À un minimum de la somme des carrés S, on a : . En dérivant le carré de l’expression [1] de droite, qui s’annule donc, on obtient : 70 (J T J)q = J T [y − f(p)] d’où l’on tire aisément q en inversant J T J. Dans l’inversion matricielle, tout va dépendre du rapport entre la valeur propre la plus « grande » en norme, et la valeur propre la plus petite ; ce rapport, appelé « conditionnement de matrice », va concrètement refléter la robustesse de l’algorithme face au bruit. Le point essentiel de l’algorithme de Levenberg-Marquardt est d’approcher cette équation, en l’ « amortissant » un peu. (J T J + λ.diag(J T J))q = J T [y − f(p)]. Le facteur d’amortissement positif λ est ajusté à chaque nouvelle itération. Si la diminution de S est rapide, on peut utiliser une valeur plus faible ce qui rapproche l’algorithme de celui de Gauss-Newton. Si en revanche une itération est peu efficace, on peut augmenter λ ce qui rapproche cette fois l’algorithme de celui du gradient. Un tel facteur d’amortissement est utilisé par exemple dans la régularisation de Tikhonov, utilisée pour résoudre certains problèmes linéaires. Si on a effectué plus d’un certain nombre d’itérations, ou bien que l’on s’est approché suffisamment d’un minimum, la procédure se termine et renvoie le paramètre p comme estimation de la solution.

Choix du paramètre d’amortissement

De nombreux arguments, plus ou moins heuristiques ont été proposés afin de déterminer le meilleur facteur d’amortissement λ. Des démonstrations théoriques montrent que certains choix garantissent une convergence locale – mais peuvent afficher une convergence faible près de l’optimum. La valeur absolue de tout choix dépend de l’échelle du problème. Marquardt recommandait de commencer à partir de λ0 et avec un facteur ν>1. On pose alors au départ λ=λ0 et calculons la somme des carrés des déviations S(p) après une itération, en utilisant le facteur d’amortissement λ=λ0, puis en utilisant λ/ν. Si les deux derniers renvoient un point moins bon que le point de départ, on augmente λ en le multipliant par ν, jusqu’à atteindre un point meilleur avec un nouveau facteur λνk pour un certain k. Si l’utilisation du facteur λ/ν donne une somme plus faible, alors il est pris comme nouvelle valeur de λ et l’algorithme continu. Si l’utilisation de λ/ν donne une somme plus importante, mais que l’utilisation de λ donne une somme plus faible, alors λ est conservé. 

Matrice HESSIENNE

En mathématiques, la matrice hessienne (ou simplement la hessienne) d’une fonction numérique f est la matrice carrée, notée H(f), de ses dérivées partielles secondes. Plus précisément, étant donnée une fonction f à valeurs réelles f: Rn -> R :f(x1, x2, …, xn), et en supposant que toutes les dérivées partielles secondes de f existent, le coefficient d’indice i,j de la matrice hessienne de f vaut ou, en d’autres termes, On appelle hessien (ou discriminant hessien) le déterminant de cette matrice. Le terme « hessien » a été introduit par James Joseph Sylvester, en hommage au mathématicien allemand Ludwig Otto Hesse. Soit notamment f une fonction de classe définie sur un ouvert U de l’espace E, à valeurs réelles. Sa matrice hessienne est bien définie et en vertu du théorème de Schwarz, elle est symétrique. On appelle forme hessienne la forme quadratique associée à la matrice hessienne lorsque celle-ci est symétrique. Application à l’étude des points critiques On suppose f une fonction de classe sur un ouvert U. La matrice hessienne permet, dans de nombreux cas, de déterminer la nature des points critiques de la fonction f, c’est-à-dire des points d’annulation du gradient. – Condition nécessaire d’extremum local – si a est un point de minimum local de f, alors c’est un point critique et la hessienne en a est positive (c’est-à-dire que la forme hessienne est positive) – si a est un point de maximum local de f, alors c’est un point critique et la hessienne en a est négative (c’est-à-dire que la forme hessienne est négative) 72 En particulier, si la hessienne en un point critique admet au moins une valeur propre strictement positive et une valeur propre strictement négative, le point critique est un point col. – Condition suffisante d’extremum local Précisément, un point critique de f est dit dégénéré lorsque le discriminant hessien s’annule, autrement dit lorsque 0 est valeur propre de la hessienne. En un point critique non dégénéré, le signe des valeurs propres (toutes non nulles) détermine la nature de ce point (point d’extremum local ou point col): – si la hessienne est définie positive, la fonction atteint un minimum local au point critique – si la hessienne est définie négative, la fonction atteint un maximum local au point critique – s’il y a des valeurs propres de chaque signe, le point critique est un point col. Dans ce dernier cas, on définit l’indice du point critique comme le nombre de valeurs propres négatives. En dimension deux notamment, le discriminant hessien étant le produit des valeurs propres, son signe suffit à déterminer la nature d’un point critique non dégénéré. Enfin pour un point critique dégénéré, aucune de ces implications n’est vraie. – Courbe hessienne Si C est la courbe algébrique d’équation projective (homogène) , on appelle courbe hessienne (ou simplement hessienne) de C la courbe dont l’équation projective est , où est le hessien (le déterminant de la matrice hessienne) de f. La hessienne de C a pour intersection avec C les points critiques et les points d’inflexion de C2. Si C est de degré d, sa hessienne est de degré 3(d-2) ; d’après le théorème de Bézout, le nombre des points d’inflexion d’une courbe régulière de degré d est donc 3d(d-2), ce qui est un cas particulier d’une des formules de Plücker. 

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *