Évaluation de la qualité d’une solution couplée

Évaluation de la qualité d’une solution couplée

Estimation de l’erreur pour les calculs multi-échelles

Introduction à la notion d’erreur

L’erreur permet de faire la différence entre une solution exacte, référence issue du problème initial (équations aux dérivées partielles), par exemple un déplacement u et sa solution approchée uapp par une méthode de type éléments finis ou isogéométrique. Cette erreur d’approximation peut se mesurer de la façon suivante : eh = ||u − uapp||, (3.1) où ||.|| est une norme choisie. Parmi les normes disponibles, la norme énergétique est couramment utilisée. Elle est préférée par rapport aux autres normes globales car elle est en lien avec les propriétés du modèle de référence. A partir de cette définition de l’erreur, on détermine deux classes d’estimation d’erreur : a priori et a posteriori. Les estimations d’erreur a priori sont incomplètes et ne permettent pas d’évaluer l’erreur faite sur une solution EF car elles utilisent en grande partie la solution exacte u qui n’est généralement pas connue. Dans cette thèse, nous nous intéressons aux estimations a posteriori qui permettent quant à elles d’évaluer quantitativement après calcul l’écart de la solution approchée à celle de référence. Les approches classiques de vérification de modèles ont été très largement étudiées et implémentées pour de l’estimation a posteriori de l’erreur de discrétisation et l’adaptation de maillage dans le cadre de la méthode des éléments finis [2, 31, 99,159]. Parmi les différentes méthodes a posteriori, nous nous focalisons sur deux méthodes : la méthode des résidus et la méthode d’estimation d’erreur en relation de comportement en notant qu’une autre méthode de lissage des champs (ZZ) peut aussi être utilisée [167]. 

État de l’art des méthodes de certification des méthodes multi-échelles

Parmi les outils de vérification de modèles, les outils basés sur la méthode des résidus sont largement utilisés pour les problèmes multi-échelles. Ces outils qui nécessitent peu d’effort d’implémentation sont des extensions de ceux développés dans [119] pour l’estimation d’erreur de modèle. Ils ont été initialement appliqués sur des matériaux hétérogènes pour des couplages de modèles hiérarchiques [121, 122, 158] avant d’être implémentés dans un contexte multi-échelles [120, 168]. Parmi ces applications, on peut citer l’application aux solides hétérogènes [143,144], aux couplages atomistiques [14,133,134], aux problèmes de diffusion [30] ou aux couplages stochastiques [165]. Par exemple, dans le cas d’un modèle multi-échelles avec description à l’échelle particulaire résolu par la méthode Arlequin [134], un algorithme d’adaptation basé sur de l’estimation d’erreur de modèle permet de déterminer la zone optimale de recouvrement entre les modèles particulaire et continu vis-à-vis d’une quantité d’intérêt choisie. Un des exemples montre la procédure d’adaptation dans le cas d’un effort appliqué sur une particule du bord si on s’intéresse au déplacement vertical où cet effort est appliqué. Sur le maillage initial carré (15×15 éléments) où chaque élément contient 5×5 particules, la configuration initiale du problème Arlequin est donnée sur la Figure 3.1a. Suite à la mise en place de l’algorithme d’adaptation, la définition du problème Arlequin est modifiée et devient celle décrite sur la Figure 3.1b ce qui permet de réduire l’erreur relative sur le déplacement vertical au point d’application de la force de 13 à 2%. En résumé, la vérification de modèle pour les couplages multi-échelles de modèles est essentiellement basée sur les méthodes de résidus explicites [1, 103, 153, 164] ou celle des résidus pondérés introduite dans [119] et ciblée sur des quantité d’intérêt. Cette dernière approche a été largement étudiée pour divers problèmes dans [1, 33, 41, 77, 87, 102, 103, 124, 137, 141, 153, 164]. 35 Chapitre 3. Évaluation de la qualité d’une solution couplée (a) Configuration initial d’Arlequin. (b) Configuration finale d’Arlequin. Figure 3.1 – Évolution de la définition du couplage d’Arlequin à l’aide de l’estimation d’erreur sur une quantité d’intérêt [134]. Cette famille de méthodes aboutit à des bornes d’erreur qui sont généralement non garanties (en particulier dans les cas de modèles non-linéaires) et qui sont exactes seulement si une hypothèse de saturation est vérifiée. D’autres outils de vérification permettent d’obtenir des bornes exactes et garanties d’erreur en utilisant un modèle linéaire ou non-linéaire. Ils sont basés sur la dualité et le concept d’erreur en relation de comportement (ERC). Ce concept, dont la notion principale est la satisfaction de l’équilibre mécanique, a été initialement introduite pour des modèles EF [96–98] utilisant des arguments thermodynamiques et des propriétés de convexité. Un résumé des nombreuses applications du concept ERC peut être trouvé dans [92, 94, 99]. L’ingrédient principal est la reconstruction des champs de contraintes/flux équilibrés, qui est en effet le seul moyen d’obtenir des bornes d’erreur garanties [29, 48, 56, 61, 106, 113]. Le concept ERC peut être associé à l’estimation d’erreur en quantité d’intérêt [32, 90].

Estimation d’erreur de couplage non-intrusif

En ce qui concerne l’estimation d’erreur et l’adaptation pour des couplages non-intrusifs local-global, les travaux sont assez limités. Les travaux récents dans [52] sont les plus avancés sur ce thème. La méthode des résidus explicites y est utilisée afin de construire un estimateur d’erreur a posteriori peu coûteux et grossier (i.e. en norme énergétique). Cet estimateur permet de contrôler les erreurs de discrétisation et de convergence. Il peut être utilisé en pratique pour piloter l’adaptation de maillage dans la zone locale (supposée avoir une définition fixe dans [52]) ainsi que l’arrêt des itérations. Par exemple, sur l’exemple donné sur la Figure 3.2, il peut être décidé que la solution calculée soit acceptable dès que l’erreur venant de la convergence est suffisamment faible, soit après 10 itérations dans l’exemple présenté. Néanmoins, les outils proposés sont très incomplets et peu robustes car difficilement applicables en dehors des modèles linéaires et ne prenant pas en compte l’erreur de modèle. En effet, pour un problème de couplage non-intrusif, les sources d’erreurs sont classifiables en trois catégories : — l’erreur de modèle due à l’utilisation d’un modèle de substitution dans Ω0, associé à un opérateur régulier K0 et à un maillage grossier τ H fixé (i.e. non adapté). Cela peut engendrer des effets de pollution quand on s’intéresse à l’exactitude de la quantité d’intérêt définie dans ΩL. L’amplitude de cette erreur peut être réduite en augmentant la taille de la zone critique ΩL et tend vers zéro quand ΩL tend versΩ ; — l’erreur de discrétisation due à l’utilisation d’un maillage τ h afin d’approximer la solution du problème local (2.10). L’amplitude de cette source d’erreur est réduite en diminuant 36 Chapitre 3. Évaluation de la qualité d’une solution couplée Figure 3.2 – Comparaison entre l’erreur éléments finis et l’erreur de convergence d’un problème de couplage non-intrusif afin d’évaluer le nombre d’itérations nécessaires (issu de [52]). la taille h du maillage dans τ h ; elle devient nulle quand h tend vers zéro ; — l’erreur de convergence due à l’utilisation d’un algorithme local-global itératif. L’amplitude de cette source d’erreur diminue quand le nombre d’itérations augmente, elle s’annule quand n tend vers +∞. Dans les applications pratiques des méthodes de couplage non-intrusif, ΩL et τ h sont définis de façon empirique à partir de l’expérience a priori de l’utilisateur sans évaluation quantitative des erreurs de modèle et de discrétisation associées. De plus, la convergence de l’algorithme itératif de couplage local-global est classiquement contrôlée en utilisant un critère d’arrêt (ou un indicateur de convergence) basé sur l’amplitude de la norme du résidu d’équilibre. Cette procédure peut être très pessimiste et mobiliser inutilement des ressources de calcul vu que : — la tolérance fixée sur la donnée d’intérêt peut être atteinte même si la solution localglobal n’a pas convergé, si bien que l’algorithme de couplage peut être arrêté plus tôt sans dégrader l’exactitude de cette donnée ; — l’erreur de convergence, bien qu’importante, peut rapidement devenir négligeable face à d’autres sources d’erreurs, si bien que les itérations supplémentaires deviennent inutiles pour diminuer l’erreur globale ou locale. Par conséquence, il est pertinent de créer des outils permettant d’évaluer quantitativement des mesures d’erreur ainsi que les contributions individuelles de chaque source d’erreur. De tels outils sont la base d’un algorithme d’adaptation automatique qui permet d’optimiser la définition de ΩL, de τ h , et du nombre d’itérations requises (pour une tolérance d’erreur fixée). Un tel algorithme d’adaptation permet d’utiliser les ressources numériques de façon efficace.

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *