Fonctions d’Utilités et Optimisation de Portefeuille

Fonctions d’Utilités et Optimisation de Portefeuille

Introduction 

Un des problèmes les plus étudiés en finance est le problème d’optimisation de portefeuille pour un agent qui investit sur le marché financier et tente de trouver la meilleure stratégie qui maximise l’espérance de l’utilité de son portefeuille final à une date T appelée maturité. Ce problème été étudié, pour la première fois et dans le cadre d’un modèle continu, par Merton dans [81], [82], voir aussi [80] et [101] pour un modèle discret. En utilisant des méthodes de programmation dynamique et de contrôle stochastique, ce dernier a établi une équation aux dérivés partielles non linéaire dite équation de Hamilton-Jacobi-Bellman (HJB). En particulier, pour des utilités exponentielles, logarithmique et puissance, l’auteur établit des formules fermées pour décrire les solutions à ces équations. Un premier objectif de ce chapitre sera alors d’expliciter cette méthode, dans le cadre d’un marché financier incomplet dans lequel les cours des actifs sont des semimartingales continues et où un investisseur est contraint de choisir ses portefeuilles dans un ensemble convexe fermé K. Nous étudierons un premier cas où les solutions des équations, de type Hamilton-Jacobi-Bellman, sont suffisamment régulières, puis nous introduisons la notion des solutions de viscosité de ces EDP, une notion introduite par Crandall et Lions [12] pour des équations différentielles du premier ordre et généralisées, par la suite, aux équations différentielles du second ordre. L’objectif final de ce chapitre n’est pas uniquement d’appliquer cette méthode d’équations aux dérivés partielles mais aussi de préparer le terrain pour la partie la plus importante de ce manuscrit où nous considérons le même modèle d’univers d’investissement, avec contraintes K, dans un nouveau cadre où les utilités sont stochastiques avec condition initiale. Le même raisonnement appliqué dans ce chapitre, sera par conséquent repris et des EDP stochastiques, très similaires à celles que nous établirons dans les paragraphes qui suivent, seront établies.

Utilité et optimisation de portefeuille 

Dans ce chapitre, nous considérons un agent, de richesse initiale x , qui investit sur le marché financier, supposé incomplet dans le sens où cet investisseur est contraint de choisir ses stratégies dans un ensemble, noté dans toute la suite par K . Comme tout agent financier, cet individu représente ses préférences et son aversion au risque à l’aide d’une fonction d’utilité qu’on notera par U. Une fois sur le marché, cet agent, investit sa richesse en achetant et en vendant des quantités d’actifs. Son but est alors de trouver la stratégie optimale qu’il doit adopter le long de la gestion de son portefeuille. Cette stratégie l’amènera à la fin à réaliser une richesse qui lui apporte le plus de satisfaction. Par conséquent, ce portefeuille sera déterminé selon le critère dit de l’utilité espérée, ce qui veut dire que cette stratégie maximise l’espérance de l’utilité de sa richesse finale à la date de maturité T.

 Méthode EDP 

Dans ce paragraphe, nous montrons comment le principe de programmation dynamique dû à Bellman permet de donner une caractérisation de la fonction valeurs en termes d’ équations aux dérivés partielles dites de Hamilton-JacobiBellman ainsi qu’un critère pour déterminer la stratégie optimale. Voir « Contrôle Optimal Stochastique et Applications en Finance » par Huyên PHAM [94]. Nous supposons dans toute la suite que l’ensemble K des contraintes est un cône convexe fermé. L’avantage de travailler avec des cônes convexes fermés est, bien que l’opérateur de projection sur ces ensembles n’est pas identiquement le projecteur orthogonal, la projection sur un cône possède plusieurs propriétés très utiles dans la suite (voir le lemme B.5 pour les détails). Nous rappelons enfin qu’un cas particulier de cône convexe fermé est le cas où K est, tout simplement, un sous espace vectoriel de R d , par conséquent la projection sur K n’est autre que la projection orthogonale standard. 

Hypothèse de recollement des stratégies admissibles 

Pour pouvoir appliquer le principe de la programmation dynamique quelques hypothèses sont indispensables, notamment l’hypothèse, que nous appellerons hypothèse de recollement, suivante : Hypothèse 2.3. Pour toutes stratégies π 1 admissible entre la date 0 et la date t1 et π 2 admissible entre la date t1 et la date t2, la stratégie π associée au vecteur de proportions δ défini par δ = δ 1✶[0,t1] + δ 2✶]t1,t2] est une stratégie admissible sur l’intervale [0, t2] et ce quels que soient t1 et t2 tels que 0 ≤ t1 ≤ t2. δ 1 et δ 2 désignent les proportions (définition 2.3) associées aux stratégies π 1 et π 2 . L’intérêt de faire cette hypothèse est essentiellement de pouvoir appliquer le principe de la programmation dynamique (voir le premier chapitre du cours de Saint Flour [20] de Nicole El Karoui) et aussi pour que, à chaque date intermédiaire t ∈ [0, T], nous puissons partir d’une richesse x quelconque, il suffit de placer à la date 0 la quantité xB0,t (B0,t désigne le zéro coupon pour une maturité t, c-à-d., le prix que nous payons aujourd’hui pour avoir 1 euros en t).

Cadre markovien

Équations de Hamilton-Jacobi-Bellman 

Dans ce paragraphe, nous traitons le cas markovien où nous supposons que tous les paramètres du modèle sont des fonctions du temps et de l’état du système, c-à-d nous supposons que l’hypothèse suivante est satisfaite. Hypothèse 2.4. Les paramètres du modèle, b i , σi , i = 1..d sont des fonctions mesurables régulières de [0, T] × R d −→ R d (respectivement de [0, T] × R d −→ R d×d ). Dans toute la suite et dans ce cadre Markovien, nous supposons que v est une fonction du temps t de la richesse x et du cours des actifs ξ. Nous rappelons enfin que la solution du problème d’optimisation de portefeuille (2.13) est égale à v(0, x, ξ). Le but dans la suite est alors de montrer l’existence d’une stratégie optimale admissible que nous noterons par π ∗ . Dans le cas où cette stratégie peut être exprimée comme une fonction mesurable du temps et de l’état du système, π ∗ est appelée un contrôle optimal Markovien pour (2.19). Comme il est déjà indiqué le problème que nous considérons ici est un problème à horizon fini T. Soit alors 0 < h < T − t, et supposons que nous suivons la stratégie π dans l’intervalle [t,t + h]. À l’instant t + h, l’état du système est alors X t,x,π t+h et nous l’observons cette date. Supposons de plus qu’ à partir de t+h, la politique optimale π ∗ s , t+h ≤ s ≤ T est connue et notons π˜ la stratégie définie entre t et T par π˜ = π✶[t,t+h] + ✶]t+h,T] . Le principe de Bellman dit que, si l’on choisit πs sur [t,t + h] de façon à maximiser l’expression J(t,x,ξ, π˜), on obtient ainsi le contrôle π ∗ optimal sur la période [t,t + h]. Ceci signifie que le contrôle optimal sur [t,T] peut être décomposé en π ∗ s , s ∈ [t,t + h], et π ∗ s , s ∈ [t + h,T], cette dernière étant la politique optimale démarrant en t + h dans l’état X t,x,π∗ t+h . Ceci n’est pas si évident sans l’hypothèse 2.3. Par la loi des espérances conditionnelles itérées et par l’hypothèse 2.3. Remarque 2.4. Il est important de rappeler que la stricte concavité de v a jouer un rôle très important pour établir ce résultat, car, dans le cas contraire, l’ Hamiltonien H peut exploser. À ce stade, nous avons supposé que la fonction valeur est suffisamment régulière pour pouvoir appliquer le lemme d’Itô et établir l’équation de HJB (2.41) que doit satisfaire v. En pratique l’approche est un peu différente, car nous ne pouvons montrer en général cette propriété de régularité. L’idée est de procéder par vérification dans le sens suivant : supposons qu’il existe une solution w régulière de l’équation (2.41), alors sous quelles hypothèses cette fonction w coïncide-t-elle avec la fonction valeur v ? Le résultat qui nous permet de déduire l’égalité entre ces deux fonctions w et v est appelé le théorème de vérification et dont voici une version, adaptée au problème que nous étudions Modèle à facteur Motivés par le fait qu’en réalité les paramètres du modèle sont très sensibles aux informations disponibles sur le marché, nous allons supposer, toujours dans le cadre markovien, que les paramètres de diffusions des actifs : b i , σi , i = 1..d dépendent, outre les cours des actifs, d’un ensemble de facteurs supplémentaires. La question est alors la suivante : Sachant qu’on n’investit pas dans ces processus, comment la fonction valeur, d’un investisseur, peut-elle être modifiée ? Comment faut-il tenir compte de ces informations dans la description de l’équation de Hamilton-Jacobi-Bellman ? Sans perte de généralité, nous supposons, pour simplifier, que le nouveau facteur ζ est un processus dans R, les calculs étant identiques dans le cas vectoriel. Nous supposons de plus que Hypothèse 2.6. ζ suit la dynamique : dζt ζt = µtdt + γtdWt . (2.46) Désignons par ¯ξ le vecteur ((ξ i )i=1..d, ζ) ∈ R d+1 et par σ¯ la matrice variance covariance donnée par σ¯ def = ((σ i )i=1..d, γ). Toujours dans le cadre markovien, nous supposons que la fonction valeur v est une fonction du temps t, x et ¯ξ, L’idée, comme nous l’avons expliquer, est de considérer des nouveaux facteurs dans le modèle, sans toutefois les considérer comme des actifs c-à-d on n’y investit pas de l’argent.

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *