Paramétrisation de la rigidité et maillages universels 

Télécharger le fichier original (Mémoire de fin d’études)

Réduction de modèle par la méthode Galerkin-POD

Dans le cadre de la réduction de modèle, la POD est une des plus anciennes tech-niques utilisées et est, de nos jours, assez répandue dans le monde scientifique, no-tamment en mécanique des fluides [Holmes, 2012], pour la résolution de problèmes élastoplastiques [Corigliano et al., 2015, Zhang et al., 2015], aéroélastiques [Epureanu et al., 2004], stochastiques [Schenk et Schuëller, 2003], multiparamétriques [Gunzbur-ger et al., 2007], d’équations paraboliques [Atwell et King, 2001], dans le domaine des MEMS (microelectromechanical systems) [Hung et Senturia, 1999], pour l’analyse mo-dale [Han et Feeny, 2003], de systèmes multicorps [Quaranta et al., 2004], en météoro-logie et océanographie [Cao et al., 2007] (voir [Kerschen et al., 2005] pour une revue des applications), etc.
Considérons un problème défini sur l’espace Ω et paramétré par α ∈ A1. Une mé-thode classique basée sur les éléments finis consisterait à résoudre ce problème pour chaque valeur de paramètre après discrétisation de A. Si nous notons n, le nombre de degrés de liberté de Ω et nA, le nombre de nœuds du maillage de A, cela revient à résoudre nA fois un problème éléments finis de taille n × n. Or les solutions obtenues sont issues de problèmes similaires et possèdent, en conséquence, des caractéristiques communes. On peut donc légitimement penser qu’une partie de l’information conte-nue dans chaque solution est redondante quand l’on prend le problème paramétré dans son ensemble. À partir de cette constatation, la Galerkin-POD suppose que l’es-pace de recherche de la solution est d’une dimension bien inférieure à celle de l’espace de recherche de la méthode classique, soit n × nA. Le problème se résume alors en la recherche d’une base de cet espace.
Soit u(α, X) la solution recherchée du problème paramétré, avec α ∈ A et X ∈ Ω.
Dans la stratégie POD, on va construire une approximation sous la forme : u(α, X) = λi (α) Λi (X) (1.16) i =1 où N est la dimension de l’espace d’approximation.
1. On note en gras une variable α et son espace A associé lorsque cette variable est multidimen-sionnelle. Lorsque cette variable α est scalaire, son espace associé A et elle-même sont écrits avec une épaisseur de typographie normale.
La base Λi ∈ 1,N construite (lors de la phase offline, voir ci-après), est, dans le cadre de la POD, une base orthogonale. Dans le contexte de la réduction de modèle, les fonc-tions λi (α) seront calculées dans un second temps lors de la phase dite online. Or c’est bien la première étape, la construction de la base qui est la plus problématique. En effet, la construction de la base nécessite une connaissance a priori de la solution. La résolution du problème complet n’étant pas envisageable, il est néanmoins pos-sible de résoudre le problème pour des valeurs données de paramètre afin d’obtenir une connaissance partielle de la solution. Pour cela, on discrétise grossièrement l’es-pace des paramètres Aet on calcule des solutions u(αi , X)i ∈ 1,nS partielles, appelées échantillons ou snapshots [Chatterjee, 2000]. On peut ensuite construire notre base en appliquant une des stratégies à disposition (SVD, KLT, PCA) à la matrice des snapshots MS = [u(αi , X)]i ∈ 1,nS . On notera, par la suite, cette base (Λ1, . . . , ΛN ) avec N nS . Cette première phase est celle de la construction du modèle réduit. Il reste maintenant à l’utiliser.
L’utilisation du modèle réduit consiste en la détermination à l’aide de la base cons-truite des coefficients (λi )i ∈ 1,N pour tout nouveau problème associé à un paramètre α ∈ A. On rappelle l’expression de l’approximation de u(α) recherchée :N u(α) = λi (α) Λi (1.17) i =1
Pour déterminer (λi )i ∈ 1,N , on projette u(α) sur l’espace WN = Vect {Λi }i ∈ 1,N . Sup-posons que l’on ait pris une série de snapshots u(αi )i ∈ 1,ns et qu’à partir de cela, l’on ait extrait une base réduite (Λ1, . . . , ΛN ) (avec N ns ≪ n). Il nous faut maintenant résoudre le problème suivant :
Problème 1.5. Pour α ∈ A, trouver u(α) ∈ WN tel que ∀v ∈ WN , A(u(α) , v; α) = L(v; α) (1.18)
On choisit alors comme fonction test v = Λk pour tout k ∈ 1, N ce qui revient à calculer les coefficients (λ1, . . . , λN ) en résolvant le système linéaire suivant : ∀j ∈ 1, N , λk (α) A Λj , Λk = L Λj ; α (1.19) k=1
On est donc passé de la résolution d’un système n × n à celle d’un système N × N avec N ≪ n. Les coûts de calcul ont donc été fortement réduits et cela autorise une utilisation quasi-temps réel du modèle réduit.
La stratégie Galerkin-POD peut être résumée comme suit : Phase OFflINE Durant cette étape, qualifiée aussi de phase d’apprentissage, on va ex-traire une série de snapshots u(αi )i ∈ 1,ns du problème total. À partir de ces snapshots, on construit une base réduite (Λ1, . . . , ΛN ) à l’aide, par exemple d’une SVD. On peut, ensuite, calculer les termes A Λj , Λk , indépendants des paramètres, une fois pour toutes. La phase offline est, de très loin, la plus coûteuse en temps de calcul. Cepen-dant, le temps perdu à cette étape sera très largement compensé par celui gagné lors de la phase online, i.e. lors de l’utilisation du modèle réduit.
Phase ONLINE Alors que la phase offline est celle de la construction du modèle réduit à proprement dit, la phase online est celle de son utilisation. On vient résoudre, pour tout nouveau problème associé à un paramètre α ∈ A, les coefficients (λi )i ∈ 1,N à la volée en se basant sur une projection de type Galerkin.
Il faut néanmoins préciser que le choix de la base réduite et donc des snapshots est déterminant pour la suite de la méthode. En effet, rien ne garantit a priori qu’une quantité suffisante d’information soit présente dans les échantillons sélectionnés. Une idée, pour assurer la validité et la légitimité de la méthode, pourrait être d’augmenter le nombre de snapshots. Or, pour certains problèmes hyperboliques de type problème transitoire, le nombre de snapshots nécessaires peut rendre la méthode inutilisable en pratique [Glüsmann et Kreuzer, 2009, Boucinha et al., 2014]. En effet, augmenter le nombre de snapshots revient dans le même temps à augmenter la complexité de la méthode. Par conséquent, un nombre trop important de snapshots entraîne une ex-plosion du temps de calcul. Une autre idée serait de pouvoir sélectionner de manière judicieuse les snapshots à l’aide d’estimateurs d’erreur. C’est précisément sur ce der-nier point que se démarque la méthode Reduced Basis.

Reduced Basis

La démarche Reduced Basis (RB) est similaire à celle Galerkin-POD, à ceci près que l’accent est mis, à présent, sur la recherche des snapshots appropriés (voir [Maday et Ronquist, 2004, Veroy et Patera, 2005, Rozza et al., 2008, Nguyen, 2008, Galvis et Kang, 2014]). Cette distinction est d’importance car la RB permet la construction de bases réduites de taille exploitable car, comme il a été mentionné, dans certains cas, la POD peut nécessiter un grand nombre de snapshots si leur choix n’a pas été fait de ma-nière étudiée. Les snapshots sont recherchés par l’intermédiaire d’un algorithme greedy (glouton) et non donnés a priori. Ainsi supposons que l’on ait déjà choisi un ensemble de N paramètres (α1, . . . , α N ) ∈ AN . L’approximation u N est construite en projetant or-thogonalement u(α) sur l’espace WN = Vect {u(αi )}i ∈ 1,N : uN (α) = PN u(α) (1.20) où P N est la projection orthogonale sur W .
Si l’on souhaite enrichir la base réduite, c’est-à-dire ajouter un nouveau snapshot, on le choisira de telle sorte que αN +1, le paramètre associé à ce snapshot, minimise l’erreur u(α) − uN (α) [Rozza, 2011] : αN+1 = arg max u(α) − uN (α) (1.21) α∈A (u(α1), . . . , u(αN +1)), à savoir les snapshots eux-mêmes, sont choisis comme base réduite, après une orthonormalisation de type Gram-Schmidt. L’algorithme de sélec-tion des snapshots est retranscrit dans l’ALG.1. Nous avons donc, ici aussi, une légère différence avec la méthode POD dans le sens où c’est bien (u(α1), . . . , u(αN +1)) qui est la base réduite bien. Autrement dit, les snapshots forment, eux-mêmes, la base, bien que l’on puisse toujours effectuer une SVD a posteriori.
Cette étape de sélection des snapshots se fait au prix d’une augmentation sensible du temps de calcul de la phase offline. Le calcul de l’erreur vraie u(α) − uN (α) est, certes, non accessible car impliquant la connaissance de la solution vraie. Cependant il est possible de majorer cette erreur a posteriori par une borne ΔN (α). C’est sur cette problématique qu’une grande partie de la littérature porte, à savoir la construction d’estimateurs d’erreur a posteriori afin de réduire le temps de calcul lié à la sélection des snapshots [Prud’homme et al., 2002, Barrault et al., 2004, Rozza et al., 2008, Rozza, 2011].
Algorithme 1 : Algorithme greedy d’échantillonnage
Entrées : S1 = {α1}
1 pour k = 2 à kmax faire
2 αk = arg max u(α) − uN (α) ;
α∈A
3 Sk = Sk−1 ∪ {αk };

PGD-Abaque virtuel

Proper Generalized Decomposition

La Proper Generalized Decomposition (PGD) diffère des techniques de réduction de modèle citées précédemment car elle ne nécessite pas de connaissance a priori de la solution réelle. La base réduite PGD est construite de manière itérative en même temps que l’approximation. Néanmoins, dans le cadre de la PGD, cette base n’est pas ortho-gonale contrairement à la POD, bien que l’on puisse l’orthonormaliser après coup (ce qui est très souvent fait en pratique). La sélection de snapshots n’étant pas nécessaire pour déterminer une base réduite, la méthode PGD permet le calcul d’une approxima-tion de façon automatique.
Elle fut introduite pour la première fois dans [Ladevèze, 1985] sous le nom d’Appro-ximation Radiale dans le cadre du solveur non incrémental LaTIn pour la résolution de problèmes fortement non linéaires [Ladevèze, 1999]. Dans cet environnement, elle fut appliquée aux problèmes viscoplastiques [Boisse et al., 1990, Cognard et Ladevèze, 1993, Relun et al., 2013], au délaminage des composites [Allix et Ladevèze, 1992], aux problèmes paramétrés [Vitse et al., 2014, Néron et al., 2015], multiphysiques [Cognard et al., 1999, Néron et Dureisseix, 2008a, Néron et Dureisseix, 2008b, Néron et Ladevèze, 2010], multiéchelles [Cremonesi et al., 2013], pour les problèmes de contact [Giacoma et al., 2014, Giacoma et al., 2015], etc.
La PGD a aussi connu un développement important hors de la méthode LaTIn. Alors que la PGD traitait principalement de problèmes temps/espace (solutions de type u(t , X)), elle va s’étendre à la résolution de problèmes paramétriques (solutions de type u(α, X)) grâce aux travaux des équipes de recherche de Chinesta [Mokdad et al., 2007,Chinesta et al., 2010a,González et al., 2010,Bognet et al., 2012a] pour n’en ci-ter que quelques-uns. Elle a depuis été appliquée à différents types de domaines : pro-blèmes stochastiques [Nouy, 2007, Nouy, 2009], multidimensionnels [Chinesta et al., 2010b], hyperélastiques [Niroomandi et al., 2013], paraboliques [Bonithon et al., 2011], viscoélastiques [Ammar et al., 2015], en acoustique [Barbarulo et al., 2014], en méca-nique des fluides [Ammar et al., 2007a, Ammar et al., 2007b], en monitoring de procé-dés thermiques [Aguado et al., 2015], en mécanique de la rupture [Giner et al., 2013], pour des simulations temps réel en chirurgie [González et al., 2015, Alfaro et al., 2014], en dynamique transitoire [Boucinha et al., 2013, Boucinha et al., 2014] ou encore pour la vérification de modèle et estimation d’erreur [Ladevèze et Chamoin, 2011, Ladevèze et Chamoin, 2013]. Pour une synthèse de la méthode, on peut se reporter à [Ladevèze, 2014].

PGD-Abaque virtuel

La Proper Generalized Decomposition, en permettant le calcul rapide et automa-tique d’approximations à variables séparées, est le cadre privilégié de la construction d’abaques virtuels. En effet, la résolution du problème paramétrique complet étant ac-cessible, les modes PGD calculés peuvent être stockés, une fois pour toutes, dans des abaques pour une utilisation ultérieure. Ainsi, un abaque virtuel du déplacement u dépendant d’un jeu de paramètres α ∈ A peut être vu comme une approximation à variables séparées de u.
∀X ∈ Ω, ∀α = (α1, • • •, αm ) ∈ A, u(α, X) = λk (α) Λk (X) (1.22) k=1
où λk (α) = mj=1 λkj αj et n est le nombre de « modes » utilisés dans l’approximation.
En pratique, ce seront les fonctions λk et les éléments de la base réduite Λk que l’on stockera dans un abaque virtuel. L’utilisateur final n’a alors qu’à particulariser cette so-lution pour un jeu de paramètres donné en procédant à une simple somme de produits de fonctions à la volée.

Présentation du problème

La PGD est illustrée à travers le Problème 1.4 linéaire élastique où la loi constitutive est paramétrée par un ensemble de modules d’Young α = (α1, . . . , αm ) ∈ A= A1 × • • • × Am .
On peut écrire la formulation variationnelle totale du problème, i.e. le problème est non seulement intégré sur l’espace Ω mais aussi sur les paramètres. Pour cela, on introduit les espaces fonctionnels suivants V= H01(Ω) = v ∈ H1(Ω) v|∂u Ω = 0 , I= L2 (A) et I = L2 A pour j = 1, m . Par conséquent, le problème s’écrit maintenant :
Problème 1.6. Trouver u ∈ I⊗ V tel que
∀v ∈ I⊗ V, Cε(u) : ε(v) dΩdA= f • v dS dA
A Ω A∂d Ω
où ⊗ est le produit tensoriel.
On recherche une approximation PGD du déplacement u. Deux possibilités s’offrent à nous. Soit une décomposition type paramètres/espace : u(α, X) ≈ un (α, X) = λi (α)Λi (X) (1.23) i =1 avec pour tout i ∈ 1, n , (λi , Λi ) ∈ I× V où λi (α) = λi (α1, . . . , αm ).
soit une décomposition selon chaque composante du paramètre α : n m un (α, X) = λij (αj )Λi (X) (1.24) i =1 j =1 avec pour tout (i , j ) ∈ 1, n × 1, m , λj ∈ Ij . i
Les différents modes sont calculés via un algorithme itératif de type Galerkin pro-gressif [Chinesta et al., 2011]. À l’étape d’enrichissement n, on suppose connue la re-présentation à variables séparées de un . Le nouveau (m+1)-uplet λ1, . . . , λm , Λ ∈ I1 × • • • × Im × V est alors calculé à l’étape n + 1 de la manière suivante : m un+1 = un + λr Λ (1.25) r =1
On choisit la fonction test v ∈ Tun+1 (I⊗ V) (espace tangent à l’espace I⊗ V en un+1) : m m m v = λr Λ∗ + λj ∗ λr Λ (1.26) r =1 j =1 r =1 r j avec Λ∗ ∈ V et λj ∗ ∈ Ij pour j ∈ 1, m .
Le Problème 1.6 devient :
Problème 1.7. Trouver λ1, . . . , λm , Λ ∈ I1 × • • • × Im × V tels que ∀ λ1∗, . . . , λm∗, Λ∗ ∈ I1 × • • • × Im × V,
C(α) ∇s un + m λr Λ : ∇s m λr Λ∗ + m λj ∗ m λr Λ dΩdA= A Ω r 1 r 1 j 1 r j = = = r =1 f • m λr Λ∗ + m λj ∗ m λr Λ dS dA A∂d Ω j 1 r j r =1 = r =1
Les calculs des différentes intégrales seraient grandement facilités par la représen-tation à variables séparées de l’intégrande puisqu’ils pourraient être effectués indé-pendamment l’un de l’autre, à la condition, naturellement, que l’opérateur de Hooke C(α) puisse aussi être écrit sous forme séparée. Cela sera explicité à travers l’exemple numérique présenté dans la sous-section suivante. On remarque que le problème n’est plus linéaire à la vue de la fonction test v choisie (voir (1.26)). Une stratégie type algo-rithme de point fixe est, alors, adoptée afin de calculer le (m+1)-uplet λ1, . . . , λm , Λ . Les problèmes paramétriques, ainsi que le problème en espace, sont résolus alternati-vement. L’algorithme Greedy-PGD est détaillé dans l’ALG.2. On peut se référer à [Nouy, 2010, Allier et al., 2015] pour des stratégies de résolution PGD alternatives.
Algorithme 2 : Algorithme Greedy-PGD
Entrées : Une séquence de paramètres α = (α1, α2, . . . , αm ) ∈ A= A1 × . . . × Am
1 Level 1 : Algorithme Greedy;
2 tant que R (un) > critère (avec R (un) étant le résidu) faire
3 Level 2 : Algorithme de point-fixe;
4 Initialisation du (m + 1)-uplet λ1, . . . , λm , Λ ;
5 pour k = 1 à kmax faire
6 pour j = 1 à m faire
7 Résoudre le problème paramétrique associé à λj
8 Résoudre le problème spatial associé à Λ
9 un ← un−1 + mr=1 λr Λ ;
10 n ← n + 1;
Illustrons la démarche décrite précédemment par un exemple numérique simple. La géométrie considérée est une structure en forme de (voir Figure 1.5), encastrée en son pied et soumise à un chargement de 1 000 N dirigé vers le haut en son autre extré-mité. La structure Ω est partitionnée en trois sous-domaines Ω1, Ω2, Ω3 et le module d’Young de chaque sous-domaine, considéré comme un paramètre, peut varier de 50 GPa à 1 000 GPa (α = (E1, E2, E3) ∈ A= [50 GPa; 1 000 GPa]3). Le coefficient de Poisson est, quant à lui, homogène et égal à 0, 3.
Nous allons, maintenant, nous attacher à résoudre le Problème 1.7. Pour cela, il est judicieux d’écrire la matrice de Hooke sous forme séparée afin d’obtenir une in-tégrande entièrement à variables séparées, comme mentionné précédemment. Une possibilité est de décomposer la matrice de Hooke de la sorte : C(E1,E2,E3) = (E1Φ1 +E2Φ2 +E3Φ3)H (1.27) avec
■ Φi (X) = 1 si X ∈ Ωi sinon Φi (X) = 0 pour i ∈ 1, 3
■ H = (1+ν)(1−2ν) (1+ν)(1−2ν) 1−ν ν 0 (1+ν)(1−2ν) (1+ν)(1−2ν) ν 1−ν 0 0 2(1+ν)
Cette formulation nous donne une intégrande sous forme entièrement séparée, ce qui nous sera utile lors du calcul des intégrales. On peut, désormais, réécrire le Pro-blème 1.7 particularisé à notre exemple. Le champ de déplacement u est recherché
PGD-Abaque virtuel 25
sous la forme : u(α, X) = u(E1, E2, E3, X) = λ1 (E1)λ2 (E2)λ3 (E3) Λi (X) (1.28) i =1
La fonction test v s’écrit quant à elle :
v = λ1∗ (E1) λ2 (E2) λ3 (E3) Λ+ λ1 (E1) λ2∗ (E2) λ3 (E3) Λ+
λ1 (E1)λ2 (E2)λ3∗ (E3)Λ+λ1 (E1)λ2 (E2)λ3 (E3)Λ∗ (1.29)
On introduit (1.28) et (1.29) dans le Problème 1.7. On définit, par souci de clarté, les coefficients suivants pour i ∈ 1, n + 1 et r ∈ 1, 3 :
air = λir λr dAr , bir = λir λr Er dAr , cr = λr dAr
Gir = H∇s (Λi ) : ∇s (Λ) dΩr , Gir ∗ = H∇s (Λi ) : ∇s Λ∗ dΩr
En appliquant le principe de stationnarité, on arrive aux quatre équations suivantes :
an2+1an3+1Gn1+1E1 + bn2+1an3+1Gn2+1 + an2+1bn3+1Gn3+1 λ1 = c2c3 f • ΛdS − ai2ai3Gi1E1 + bi2ai3Gi2 + ai2bi3Gi3 λi1 ∂d Ω i =1
bn1+1an3+1Gn1+1 + an1+1an3+1Gn2+1E2 + an1+1bn3+1Gn3+1 λ2 = c1c3 f • ΛdS − bi1ai3Gi1 + ai1ai3Gi2E2 + ai1bi3Gi3 λi2
∂d Ω i =1 bn1+1an2+1Gn1+1 + an1+1bn2+1Gn2+1 + an1+1an2+1Gn3+1E3 λ3 = n c1c2 f • ΛdS −bi1ai2Gi1 + ai1bi2Gi2 + ai1ai2Gi3E3 λi3 ∂d Ω i =1
bn1+1an2+1an3+1Gn1∗+1 + an1+1bn2+1an3+1Gn2∗+1 + an1+1an2+1bn3+1Gn3∗+1 = c1c2c3 f • Λ∗ dS − bi1ai2ai3Gi1∗ + ai1bi2ai3Gi2∗ + ai1ai2bi3Gi3∗
Les trois premières équations relatives aux fonctions paramétriques sont scalaires. Quant à la dernière, relative au mode spatial, elle peut être résolue en utilisant la mé-thode numérique de son choix (éléments finis, différences finies…). Dans notre cas, nous avons choisi d’utiliser les éléments finis. Dans ce cadre, il suffit, alors, de définir les matrices K1, K2 et K3, les matrices de rigidité associées respectivement aux ma-trices de Hooke Φ1H, Φ2H et Φ3H. Ainsi, l’équation (1.34) associée au problème spatial devient : bn1+1an2+1an3+1K1 + an1+1bn2+1an3+1K2 + an1+1an2+1bn3+1K3 Λ =n c c c 3 F − b1a2a3K + a1b2a3K 2 + a1a2b3K 3 Λ i (1.35) i =1 où F est le vecteur de chargement.
Le problème étant formulé correctement, on applique ensuite l’ALG.2 présenté pré-cédemment.

Phase d’update

Durant la présentation de l’algorithme PGD, il n’a pas été fait de distinction entre la résolution des problèmes paramétriques et de celui en espace. Or il y a une asymé-trie flagrante entre leur résolution, le problème spatial étant nettement plus lourd. En effet, le nombre de degrés de liberté, lié à la discrétisation en espace, est, en pratique, beaucoup plus élevé que le nombre de paramètres, lié à la discrétisation de Aj pour j ∈ 1, m . Il serait donc opportun de calculer le moins possible d’éléments de la base spatiale quitte à devoir calculer un plus grand nombre de fonctions paramétriques.
La démarche adoptée [Cognard et Ladevèze, 1993, Allier et al., 2015] est donc de stopper l’algorithme de point fixe après quelques itérations (typiquement 3 − 4), de conserver le mode spatial calculé, d’orthonormaliser la base spatiale en construction afin, dirons-nous, de la nettoyer et enfin de venir recalculer en bloc toutes les fonctions paramétriques lors de la phase appelée Update. L’algorithme PGD modifié est décrit ALG.3.

Table des matières

Introduction 
1 Réduction de modèle et variations de géométrie 
1.1 Proper Orthogonal Decomposition
1.1.1 Méthode de séparation de variables
1.1.2 Réduction de modèle par la méthode Galerkin-POD
1.2 Reduced Basis
1.3 PGD-Abaque virtuel
1.3.1 Proper Generalized Decomposition
1.3.2 Exemple numérique
1.3.3 Résultats
1.3.4 Phase d’update
1.4 Cas des paramètres géométriques
2 Paramétrisation de la rigidité et maillages universels 
2.1 Paramétrisation de la rigidité
2.1.1 Une nouvelle relation de comportement
2.1.2 Calcul de la matrice de rigidité
2.1.3 Calcul de la contrainte
2.1.4 Application numérique
2.1.5 Conclusions partielles
2.2 Maillages universels
2.2.1 Introduction
2.2.2 Sélection des noeuds à projeter
2.2.3 Projection des noeuds sélectionnés sur ¡
2.2.4 Relaxation des noeuds dans le voisinage du contour ¡
2.2.5 Conditions suffisantes
2.2.6 Algorithme desmaillages universels
2.3 Adaptation des maillages universels à la PGD géométrique
2.3.1 Double relaxation
2.3.2 Nouvelle vérification
2.3.3 Nouvel algorithme
2.3.4 Méthode PGD-maillages universels
2.3.5 Application numérique
2.4 Conclusions
3 Méthode des transformations géométriques 
3.1 Transformations géométriques
3.1.1 Proper Generalized Decomposition pour les variations de géométrie
3.1.2 Calcul de la matrice de rigidité
3.1.3 Exemples de transformations géométriques affines
3.2 Application numérique
3.3 Application à un démonstrateur industriel
3.3.1 Présentation du démonstrateur
3.3.2 Extension de la méthode au cas axisymétrique
3.3.3 Partition de la géométrie
3.3.4 Intégration de la méthode dans un process industriel de conception
3.4 Résultats
4 Discrete Proper Generalized Decomposition 
4.1 Nouveau démonstrateur
4.2 Paramètres discrets
4.3 Discrete Proper Generalized Decomposition ou dPGD
4.4 Approche hybride
4.4.1 Exemples académiques
4.4.2 Application au démonstrateur industriel
4.5 Conclusions
Conclusion 
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *