Transfert radiatif et résolution par méthodes de Monte-Carlo

Transfert radiatif et résolution par méthodes de Monte-Carlo

Variables aléatoires et probabilités

Avant d’aborder, à proprement parler, les méthodes de Monte-Carlo, il convient de rappeler succinctement les termes et notions statistiques sur lesquels elles s’appuient. Variables aléatoires Une variable est dite aléatoire ou stochastique s’il n’est pas possible de déterminer à l’avance sa valeur. Celle-ci ne peut-être déterminée que par l’expérience. Les variables aléatoires sont définies sur l’ensemble des occurrences (résultats possibles de l’expérience aléatoire) et peuvent être discrètes (ex : la valeur obtenue suite à un lancer de dé 1, 2, 3, 4, 5 ou 6) ou continues (ex : la durée exacte de désintégration d’un noyau radioactif). Une fonction d’une ou de plusieurs variables aléatoires est elle-même une variable aléatoire. Tout au long de ce manuscrit, le formalisme suivant sera adopté : les variables aléatoires seront notées en majuscules et leurs variables muettes associées en minuscules. Les échantillons de ces variables aléatoires – c’est-à-dire les valeurs que prennent ces variables aléatoires lors d’une expérience – seront également notés en minuscules et indicés si plusieurs expériences sont réalisées. Probabilités, fonctions densité de probabilité Outre par l’expérience, il est possible de définir une variable aléatoire par une loi de probabilité et son domaine d’application. Cette loi est un modèle caractérisant de façon probabiliste le comportement de la variable aléatoire. Ces modèles probabilistes se doivent d’être positifs et normalisés sur leur ensemble de définition. En d’autres termes, la somme des probabilités associées à l’ensemble des éventualités doit être égale à un. Lorsque la variable aléatoire Y est discrète et définie sur un ensemble de Npop éléments, cette loi de probabilité associe à chaque élément m une probabilité PY (ym). La normalisation de la somme de ces probabilités peut être formalisée comme : N Xpop m=1 PY (ym) = 1 (3.1) Lorsque la variable aléatoire X définie sur [xmin, xmax] est continue, on qualifie cette représentation, notée pX(x), de fonction densité de probabilité (ou pdf pour « probability density function »). La quantité pX(x)dx correspond à la probabilité qu’un échantillon xi de la variable aléatoire X soit compris dans l’intervalle dx autour de x. La normalisation de cette fonction densité de probabilité équivaut à écrire : Z xmax xmin pX(x)dx = 1 (3.2) Les variables aléatoires et leur description statistique par les fonctions densité de probabilité constituent deux éléments essentiels à la description et à l’analyse statistique de la physique du transport, certaines d’entre-elles ont d’ailleurs été présentées dans le Chap. 2. Fonctions de répartition Enfin, le dernier élément descriptif des variables aléatoires concerne les fonctions de répartition (ou cdf pour « cumulative distribution function »). Pour une variable aléatoire continue X décrite par une fonction densité de probabilité pX(x) définie sur [xmin, xmax], la fonction de répartition rX(x) est définie comme : rX(x) = Z x xmin pX(x 0 )dx0 (3.3) Cette fonction, qui est nulle pour x = xmin et égale à 1 pour x = xmax, est monotone et croissante. Elle correspond à la probabilité qu’une réalisation aléatoire de la variable aléatoire X soit comprise entre xmin et x. De la même manière, pour une variable aléatoire discrète Y de probabilités PY (ym), la fonction de répartition RY (ym) est définie par : RY (ym) = Xm m0=1 PY (y 0 m) (3.4) Des exemples de probabilités discrètes, de densités de probabilité et de fonctions de répartition sont données à la Fig. 3.1.

Espérance, variance, écart-type et moments d’ordre supérieur à deux Espérance – moyenne de population

L’espérance d’une variable aléatoire correspond à la moyenne pondérée par sa densité de probabilité (on parle aussi de moyenne de population). Elle représente la valeur moyenne que l’on pourrait attendre d’une expérience aléatoire. Pour une variable aléatoire discrète Y , son espérance est donnée par : E [Y ] = N Xpop m=1 PY (ym)ym (3.5) où Npop est la taille de la population, c’est-à-dire le nombre de valeurs discrètes que peut prendre Y . De la même manière, l’espérance d’une variable aléatoire continue X est définie par : E [X] = Z b a pX(x)xdx (3.6) Les fonctions de variables aléatoires étant elles-mêmes des variables aléatoires, il est également possible d’exprimer leur espérance. Pour une fonction f dépendant d’une seule variable aléatoire X : E [f(X)] = Z b a pX(x)f(x)dx (3.7) Si la fonction f dépend d’un nombre n de variables aléatoires, son espérance est donnée par : E [f(X1, … , Xn)] = Z b1 a1 pX1 (x1)dx1… Z bn an pXn (xn)dxn f(x1, … , xn) (3.8) Il est également possible d’exprimer l’Eq. 3.8 comme E [f(X)] = Z DX pX(x)f(x)dx (3.9) en posant X = [X1, X2, …, Xn] et DX = [a1, b1]×…×[an, bn]. pX(x) est alors appelée fonction densité de probabilité jointe. Si les n variables aléatoires Xi sont indépendantes elle est définie comme le produit de leur densité de probabilité respectives. Dans le cas contraire, la fonction densité de probabilité jointe est donnée par : pX(x) = pX1 (x1) × pX2|x1 (x2) × … × pXn|(x1,x2,…,xn−1)(xn) (3.10) où pXj |xj−1 (xj ) est une densité de probabilité conditionnelle qui correspond à la densité de probabilité de la variable aléatoire Xj sachant la valeur xj−1. 

Introduction aux méthodes de Monte-Carlo

Développées à la fin des années 1940 par N. Metropolis, S. Ulam et J. Von Neumann [Metropolis et Ulam, 1949], les méthodes de Monte-Carlo permettent d’évaluer de façon stochastique des grandeurs intégrales. Originellement pensées pour des applications nucléaires [Metropolis, 1987], elles se sont peu à peu étendues à un grand nombre d’autres champs disciplinaires, rencontrant une résonance et un engouement tout particulier dans les domaines relatifs à la physique du transport. Parmi les nombreux ouvrages consacrés à la description de ces méthodes, nous citerons ici les deux excellentes monographies [Hammersley et al., 1965] et [Dunn et Shultis, 2012] qui ont servi de point de départ et ont joué un rôle important quant aux travaux présentés dans ce manuscit.

Les méthodes de Monte-Carlo : un outil stochastique de calcul intégral

Le principe des méthodes de Monte-Carlo repose sur la loi des grands nombres. Celle-ci énonce que la moyenne arithmétique d’un nombre important Nmc d’échantillons indépendants xi d’une variable aléatoire X, converge presque sûrement vers l’espérance de cette variable aléatoire avec un nombre de réalisations Nmc croissant : lim Nmc→∞ 1 Nmc X Nmc i=1 xi ! = E [X] (3.20) Pour un nombre Nmc d’échantillons suffisamment grand, la moyenne arithmétique X = 1 Nmc X Nmc i=1 xi (3.21) constitue un estimateur non biaisé de l’espérance de X et est qualifiée de moyenne d’échantillon. Plus le nombre de réalisations Nmc sera important, plus cet estimateur sera précis. Or, puisqu’il est toujours possible d’exprimer une formulation intégrale ou une somme comme une espérance (cf. Eq. 3.5 et Eq. 3.6), les méthodes de Monte-Carlo permettent d’estimer par un processus stochastique toute grandeur pouvant être formulée sous un aspect intégral ou sommatoire. Elles consistent alors simplement à réaliser numériquement un grand nombre Nmc d’échantillons (ou poids de MonteCarlo) indépendants xi de la variable aléatoire X pour estimer E [X]. La procédure d’échantillonnage sera décrite plus en détail à la Sec. 3.2.3.1. Nous distinguerons toutefois deux types de grandeurs intégrales pouvant être estimées par les méthodes de Monte-Carlo : • les observables résultant d’un processus statistique, dont leur description est probabilisée (valeur moyenne obtenue lors d’un lancer de dé, distance moyenne à laquelle un lanceur de poids jette son projectile, etc.). • les observables qui ne sont pas associées à des modèles statistiques, que nous qualifierons ici de déterministes (intégration temporelle, surfacique, volumique, etc.). Observables statistiques Dans le premier cas, les observables constituent, de par les représentations que l’on en fait, de simples espérances. Elles s’exprimeront généralement sous la forme : A = Z DX pX(x)f(x)dx (3.22) où x est un vecteur aléatoire de densité de probabilité pX(x) défini sur DX et f une fonction quelconque. En transfert radiatif, les grandeurs mésoscopiques (en 56 Chapitre 3. Approche statistique et méthodes de Monte-Carlo particulier la luminance) constitueront des observables de ce type. Les algorithmes de Monte-Carlo correspondants consisteront donc à échantillonner un grand nombre de fois la variable f(X) et à moyenner arithmétiquement ces valeurs pour obtenir une estimation non biaisée de A. Ils peuvent donc être perçus comme une reproduction numérique et stochastique de l’expérience aléatoire d’intérêt. Il sera directement possible, dans ce cas précis, de tirer une analogie entre le modèle statistique et l’outil numérique. Deux exemples élémentaires (pour une variable discrète et une variable continue) sont donnés dans l’encadré ci-dessous.

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *