Optimisation, Convexité et Différentiabilité
80 tarjetasDans ce document, nous explorons les concepts de convexité, différentiabilité et optimisation dans divers espaces mathématiques, y compris les espaces de Hilbert. Il aborde la définition des ensembles convexes, des fonctions convexes et leurs propriétés, ainsi que la différentielle et le gradient d'une fonction. Les théorèmes d'existence et d'unicité des solutions pour les problèmes d'optimisation sont également discutés, en tenant compte des contraintes et des propriétés des fonctions telles que la coercivité et la stricte convexité. Les exemples incluent des cas en dimension finie et infinie, ainsi que des applications dans la programmation linéaire, quadratique et convexe.
80 tarjetas
Voici une note exhaustive sur les concepts fondamentaux de l'optimisation, de la convexité et de la différentiabilité, rédigée en français et structurée pour l'apprentissage.
Introduction aux Problèmes d'Optimisation
L'optimisation mathématique consiste à trouver le meilleur élément dans un ensemble de candidats, selon un critère donné. On cherche typiquement à minimiser ou maximiser une fonction sur un domaine spécifique.
1. Formulation du Problème
Soit V un espace vectoriel normé. Un problème d'optimisation classique se formule comme suit :
Trouver tel que soit la plus petite valeur possible, où est un sous-ensemble de (appelé ensemble des contraintes) et est la fonction objectif (ou fonction coût).
Ce problème est noté : \sup_{x \in K} f(x)\inf_{x \in K} (-f(x)) \lim_{k \to \infty} f(x_k) = m " data-type="inline-math"> \arg\min_{x \in K} f(x) = \{ x^* \in K \mid f(x^*) = \inf_{y \in K} f(y) \} " data-type="inline-math">x^*\arg\min_{x \in K} f(x) = x^* f(x_0 + h) = f(x_0) + df(x_0)(h) + o(\|h\|_E) " data-type="inline-math">o(\|h\|_E)\|h\|_Edf(x_0)$ est la différentielle de en .
Dérivée directionnelle : Si est différentiable en , sa dérivée dans la direction est donnée par : df(x_0)(h) = \langle \nabla f(x_0), h \rangle " data-type="inline-math"> (\text{Hess } f(x_0))_{ij} = \frac{\partial^2 f}{\partial x_i \partial x_j}(x_0) " data-type="inline-math"> \lim_{\|x\| \to +\infty, x \in K} f(x) = +\infty " data-type="inline-math"></p></blockquote><h3 style="text-align: left;">3. Ensembles et Fonctions Convexes</h3><p style="text-align: left;">La convexité est la propriété la plus puissante en optimisation, simplifiant radicalement l'analyse des problèmes.</p><table style="min-width: 50px;"><colgroup><col style="min-width: 25px;"><col style="min-width: 25px;"></colgroup><tbody><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Ensemble Convexe</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">Un ensemble <span data-latex="K" data-type="inline-math"></span> est <strong>convexe</strong> si pour tous <span data-latex="x, y \in K" data-type="inline-math"></span>, le segment <span data-latex="[x, y]" data-type="inline-math"></span> est entièrement inclus dans <span data-latex="K" data-type="inline-math"></span>. Autrement dit :<br><span data-latex="\forall x, y \in K, \forall t \in [0, 1], \quad (1-t)x + ty \in K" data-type="inline-math"></span></p></td></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Fonction Convexe</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">Soit <span data-latex="K" data-type="inline-math"></span> un ensemble convexe. Une fonction <span data-latex="f: K \to \mathbb{R}" data-type="inline-math"></span> est <strong>convexe</strong> si son épigraphe est un ensemble convexe, ou de façon équivalente, si pour tous <span data-latex="x, y \in K" data-type="inline-math"></span> et <span data-latex="t \in [0, 1]" data-type="inline-math"></span> :<br><span data-latex="f((1-t)x + ty) \leq (1-t)f(x) + tf(y)" data-type="inline-math"></span><br><em>Géométriquement, la corde entre deux points du graphe est toujours au-dessus du graphe.</em></p></td></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Fonction Strictement Convexe</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">La même inégalité, mais stricte pour <span data-latex="x \neq y" data-type="inline-math"></span> et <span data-latex="t \in (0, 1)" data-type="inline-math"></span> :<br><span data-latex="f((1-t)x + ty) < (1-t)f(x) + tf(y)" data-type="inline-math"></span></p></td></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Fonction Fortement Convexe (ou </strong><span data-latex="\alpha" data-type="inline-math"></span><strong>-convexe)</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">Il existe une constante <span data-latex="\alpha > 0" data-type="inline-math"></span> telle qu'une version renforcée de l'inégalité de convexité est vérifiée :<br><span data-latex="f((1-t)x + ty) \leq (1-t)f(x) + tf(y) - \frac{\alpha}{2}t(1-t)\|x-y\|^2" data-type="inline-math"></span><br><em>Cela signifie que la fonction est "plus courbée" qu'une parabole de coefficient </em><span data-latex="\alpha" data-type="inline-math"></span><em>. Une fonction </em><span data-latex="\alpha" data-type="inline-math"></span><em>-convexe est forcément strictement convexe.</em></p></td></tr></tbody></table><blockquote><p style="text-align: left;"><strong>Propriété fondamentale</strong> : Une fonction <span data-latex="f" data-type="inline-math"></span> est <span data-latex="\alpha" data-type="inline-math"></span>-convexe si et seulement si la fonction <span data-latex="g(x) = f(x) - \frac{\alpha}{2}\|x\|^2" data-type="inline-math"></span> est convexe.</p></blockquote><h2 style="text-align: left;">Caractérisation de la Convexité pour les Fonctions Différentiables</h2><p style="text-align: left;">Lorsque la fonction objectif <span data-latex="f" data-type="inline-math"></span> est différentiable, la convexité peut être caractérisée par des conditions sur son gradient et sa Hessienne.</p><h3 style="text-align: left;">1. Conditions du Premier Ordre (Gradient)</h3><p style="text-align: left;">Soit <span data-latex="f: K \to \mathbb{R}" data-type="inline-math"></span> une fonction différentiable sur un ouvert convexe <span data-latex="K" data-type="inline-math"></span>.</p><table style="min-width: 75px;"><colgroup><col style="min-width: 25px;"><col style="min-width: 25px;"><col style="min-width: 25px;"></colgroup><tbody><tr><th colspan="1" rowspan="1"><p style="text-align: left;">Type de Convexité</p></th><th colspan="1" rowspan="1"><p style="text-align: left;">Caractérisation équivalente (Inégalité)</p></th><th colspan="1" rowspan="1"><p style="text-align: left;">Interprétation géométrique/Analytique</p></th></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Convexe</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">Pour tous <span data-latex="x, y \in K" data-type="inline-math"></span>:<br><span data-latex="f(y) \geq f(x) + \langle \nabla f(x), y-x \rangle" data-type="inline-math"></span></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">La fonction est toujours au-dessus de son hyperplan tangent en n'importe quel point.</p></td></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Convexe</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">Pour tous <span data-latex="x, y \in K" data-type="inline-math"></span>:<br><span data-latex="\langle \nabla f(y) - \nabla f(x), y-x \rangle \geq 0" data-type="inline-math"></span></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">L'opérateur gradient <span data-latex="\nabla f" data-type="inline-math"></span> est monotone.</p></td></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Strictement Convexe</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">Pour tous <span data-latex="x, y \in K" data-type="inline-math"></span> avec <span data-latex="x \neq y" data-type="inline-math"></span>:<br><span data-latex="f(y) > f(x) + \langle \nabla f(x), y-x \rangle" data-type="inline-math"></span></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">La fonction est strictement au-dessus de ses hyperplans tangents (sauf au point de tangence).</p></td></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Fortement Convexe (</strong><span data-latex="\alpha" data-type="inline-math"></span><strong>-convexe)</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">Pour tous <span data-latex="x, y \in K" data-type="inline-math"></span>:<br><span data-latex="f(y) \geq f(x) + \langle \nabla f(x), y-x \rangle + \frac{\alpha}{2}\|y-x\|^2" data-type="inline-math"></span></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">La fonction est au-dessus de ses tangentes avec une marge quadratique.</p></td></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Fortement Convexe (</strong><span data-latex="\alpha" data-type="inline-math"></span><strong>-convexe)</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">Pour tous <span data-latex="x, y \in K" data-type="inline-math"></span>:<br><span data-latex="\langle \nabla f(y) - \nabla f(x), y-x \rangle \geq \alpha \|y-x\|^2" data-type="inline-math"></span></p></td><td colspan="1" rowspan="1"><p style="text-align: left;">L'opérateur gradient <span data-latex="\nabla f" data-type="inline-math"></span> est fortement monotone.</p></td></tr></tbody></table><h3 style="text-align: left;">2. Conditions du Second Ordre (Hessienne)</h3><p style="text-align: left;">Si <span data-latex="f" data-type="inline-math"></span> est deux fois différentiable sur un ouvert convexe <span data-latex="K \subset \mathbb{R}^n" data-type="inline-math"></span>.</p><table style="min-width: 50px;"><colgroup><col style="min-width: 25px;"><col style="min-width: 25px;"></colgroup><tbody><tr><th colspan="1" rowspan="1"><p style="text-align: left;">Type de Convexité</p></th><th colspan="1" rowspan="1"><p style="text-align: left;">Caractérisation (Hessienne)</p></th></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Convexe</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;"><span data-latex="\forall x \in K" data-type="inline-math"></span>, la matrice Hessienne <span data-latex="\text{Hess } f(x)" data-type="inline-math"></span> est <strong>semi-définie positive</strong>.<br>(<span data-latex="\forall h \in \mathbb{R}^n, \langle (\text{Hess }f(x))h, h \rangle \geq 0" data-type="inline-math"></span>)</p></td></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Strictement Convexe</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;"><span data-latex="\forall x \in K" data-type="inline-math"></span>, si <span data-latex="\text{Hess } f(x)" data-type="inline-math"></span> est <strong>définie positive</strong>, alors <span data-latex="f" data-type="inline-math"></span> est strictement convexe.<br>(<span data-latex="\forall h \neq 0, \langle (\text{Hess }f(x))h, h \rangle > 0" data-type="inline-math"></span>).<br><mark>Attention : la réciproque est fausse. Par exemple, </mark><span data-latex="f(x)=x^4" data-type="inline-math"></span><mark> est strictement convexe mais sa dérivée seconde </mark><span data-latex="12x^2" data-type="inline-math"></span><mark> est nulle en </mark><span data-latex="x=0" data-type="inline-math"></span><mark>.</mark></p></td></tr><tr><td colspan="1" rowspan="1"><p style="text-align: left;"><strong>Fortement Convexe (</strong><span data-latex="\alpha" data-type="inline-math"></span><strong>-convexe)</strong></p></td><td colspan="1" rowspan="1"><p style="text-align: left;"><span data-latex="\forall x \in K, \forall h \in \mathbb{R}^n" data-type="inline-math"></span>:<br><span data-latex="\langle (\text{Hess } f(x))h, h \rangle \geq \alpha \|h\|^2" data-type="inline-math"></span>.<br>(Ceci est équivalent à dire que la plus petite valeur propre de <span data-latex="\text{Hess } f(x)" data-type="inline-math"></span> est supérieure ou égale à <span data-latex="\alpha" data-type="inline-math"></span>).</p></td></tr></tbody></table><blockquote><p style="text-align: left;"><strong>Propriété</strong>: Si une fonction est <span data-latex="\alpha" data-type="inline-math"></span>-convexe sur <span data-latex="\mathbb{R}^n" data-type="inline-math"></span>, elle est nécessairement coercive.</p></blockquote><h2 style="text-align: left;">Théorèmes d'Existence et d'Unicité des Solutions</h2><h3 style="text-align: left;">1. Impact de la Convexité sur les Minimiseurs</h3><blockquote><p style="text-align: left;"><strong>Théorème 1</strong>: Si <span data-latex="f" data-type="inline-math"></span> est une fonction <strong>convexe</strong> sur un ensemble convexe <span data-latex="K" data-type="inline-math"></span>, alors tout minimiseur local est un <strong>minimiseur global</strong>. De plus, l'ensemble des minimiseurs <span data-latex="argmin_K f" data-type="inline-math"></span> est un ensemble <strong>convexe</strong>.</p></blockquote><blockquote><p style="text-align: left;"><strong>Théorème 2</strong>: Si <span data-latex="f" data-type="inline-math"></span> est une fonction <strong>strictement convexe</strong> sur un ensemble convexe <span data-latex="K" data-type="inline-math"></span>, alors le problème d'optimisation admet au plus <strong>un</strong> minimiseur. L'unicité est donc garantie s'il en existe un.</p></blockquote><h3 style="text-align: left;">2. Le Cas de la Dimension Finie (<span data-latex="\mathbb{R}^n" data-type="inline-math"></span>)</h3><p style="text-align: left;">En dimension finie, l'existence d'une solution est souvent garantie par le théorème de Weierstrass, qui stipule qu'une fonction continue sur un ensemble compact atteint ses bornes.</p><blockquote><p style="text-align: left;"><strong>Théorème d'existence en dimension finie</strong>: Soit <span data-latex="f: K \subset \mathbb{R}^n \to \mathbb{R}" data-type="inline-math"></span> une fonction <strong>continue</strong> et <span data-latex="K" data-type="inline-math"></span> un ensemble <strong>non vide et fermé</strong>. Si l'une des deux conditions suivantes est vérifiée :</p><ol class="tight" data-tight="true"><li><p style="text-align: left;"><span data-latex="K" data-type="inline-math"></span> est <strong>borné</strong> (et donc compact car fermé).</p></li><li><p style="text-align: left;"><span data-latex="f" data-type="inline-math"></span> est <strong>coercive</strong>.</p></li></ol><p style="text-align: left;">Alors le problème <span data-latex="\inf_{x \in K} f(x)" data-type="inline-math"></span> admet au moins <strong>une solution</strong> (minimiseur global).</p></blockquote><p style="text-align: left;"><em>Preuve (cas coercif)</em> : Soit <span data-latex="a \in K" data-type="inline-math"></span>. On considère le sous-ensemble <span data-latex="\bar{K} = \{ x \in K \mid f(x) \leq f(a) \}" data-type="inline-math"></span>. Tout minimiseur global doit être dans <span data-latex="\bar{K}" data-type="inline-math"></span>. Puisque <span data-latex="f" data-type="inline-math"></span> est continue, <span data-latex="\bar{K}" data-type="inline-math"></span> est fermé. Puisque <span data-latex="f" data-type="inline-math"></span> est coercive, <span data-latex="\bar{K}" data-type="inline-math"></span> est borné. <span data-latex="\bar{K}" data-type="inline-math"></span> est donc un compact non vide. D'après le théorème de Weierstrass, <span data-latex="f" data-type="inline-math"></span> atteint son minimum sur <span data-latex="\bar{K}" data-type="inline-math"></span>, qui est aussi le minimum global sur <span data-latex="K" data-type="inline-math"></span>.</p><h3 style="text-align: left;">3. Le Cas de la Dimension Infinie (Espaces de Hilbert)</h3><p style="text-align: left;"><strong><mark>Avertissement crucial</mark></strong><mark> : En dimension infinie, les ensembles fermés et bornés ne sont pas nécessairement compacts.</mark> Les résultats d'existence de la dimension finie ne se généralisent donc pas directement. La coercivité seule ne suffit plus pour garantir l'existence.</p><p style="text-align: left;"><strong>Exemple (Contre-exemple)</strong> : Considérons l'espace de Hilbert <span data-latex="\ell^2(\mathbb{N})" data-type="inline-math"></span> des suites de carré sommable, et la fonction : <span data-latex=" f(x) = (|x|^2 - 1)^2 + \sum_{i=0}^{\infty} \frac{x_i^2}{i+1} " data-type="inline-math">\ell^2(\mathbb{N})\inf_{x \in \ell^2(\mathbb{N})} f(x) = 0f(x)=0|x|^2=1x_i=0ix^{(k)}x_k^{(k)}=1x_i^{(k)}=0i \neq kf(x^{(k)}) = \frac{1}{k+1} \to 0) mais ne converge pas vers un minimiseur.</p><p style="text-align: left;">Pour garantir l'existence ET l'unicité en dimension infinie, une condition plus forte est nécessaire : la forte convexité.</p><blockquote><p style="text-align: left;"><strong>Théorème fondamental d'existence et d'unicité (Hilbert)</strong>: Soit <span data-latex="H" data-type="inline-math"></span> un espace de Hilbert, <span data-latex="K \subset H" data-type="inline-math"></span> un sous-ensemble <strong>non vide, fermé et convexe</strong>. Si la fonction <span data-latex="f: K \to \mathbb{R}" data-type="inline-math"></span> est <strong>continue</strong> et <strong>fortement convexe</strong> (i.e., <span data-latex="\alpha" data-type="inline-math"></span>-convexe pour un <span data-latex="\alpha > 0" data-type="inline-math"></span>), alors le problème <span data-latex="\inf_{x \in K} f(x)" data-type="inline-math"></span> admet une <strong>solution unique</strong> <span data-latex="x^*" data-type="inline-math"></span>.</p></blockquote><p style="text-align: left;"><em>Idée de la preuve</em> : On montre qu'une suite minimisante <span data-latex="(x_k)_k" data-type="inline-math"></span> est une suite de Cauchy en utilisant la propriété de forte convexité. Comme <span data-latex="H" data-type="inline-math"></span> est un espace de Hilbert (complet), cette suite converge vers une limite <span data-latex="x^*" data-type="inline-math"></span>. Comme <span data-latex="K" data-type="inline-math"></span> est fermé, <span data-latex="x^* \in K" data-type="inline-math"></span>. Par continuité de <span data-latex="f" data-type="inline-math"></span>, <span data-latex="f(x^*) = \inf f" data-type="inline-math"></span>. L'unicité découle de la convexité stricte (impliquée par la forte convexité).</p><h2 style="text-align: left;">Classification des Problèmes d'Optimisation</h2><p style="text-align: left;">Le vocabulaire de l'optimisation varie selon la structure de la fonction objectif et des contraintes.</p><p style="text-align: left;"><strong>Contraintes</strong> : Un ensemble <span data-latex="K" data-type="inline-math"></span> est souvent défini par des fonctions : <span data-latex=" K = \{ x \in \mathbb{R}^n \mid g_i(x) \leq 0, \forall i \in \{1, \dots, p\}; h_j(x) = 0, \forall j \in \{1, \dots, q\} \} " data-type="inline-math">g_i(x) \leq 0$ est dite active en un point si .
Type de Problème
Description
Programmation Linéaire
La fonction objectif est linéaire et l'ensemble des contraintes est un polyèdre convexe (défini par des inégalités affines ).
Programmation Quadratique
La fonction objectif est quadratique () et est un polyèdre convexe.
Optimisation Convexe
La fonction objectif est convexe et l'ensemble des contraintes est convexe. C'est le cadre le plus "idéal" pour l'analyse théorique.
Optimisation Différentiable
Les fonctions , , sont différentiables. Permet l'utilisation d'algorithmes basés sur le gradient.
Optimisation Non-différentiable
Au moins une des fonctions n'est pas différentiable. Nécessite des outils plus avancés (comme le sous-différentiel).
Synthèse : Existence et Unicité
Le tableau suivant résume les conditions garantissant l'existence et/ou l'unicité d'une solution pour .
Hypothèses sur
Hypothèses sur
Espace
Conclusion
Convexe
Convexe
Espace normé
Tout min. local est global. L'ensemble des min. est convexe.
Strictement convexe
Convexe
Espace normé
Unicité : il y a au plus un minimiseur.
Continue
Compact (fermé + borné) non vide
Espace normé
Existence d'au moins un minimiseur. (Thm. de Weierstrass)
Continue et coercive
Fermé non vide
(dim. finie)
Existence d'au moins un minimiseur.
Continue et coercive
Fermé non vide
Hilbert (dim. infinie)
L'existence n'est pas garantie.
Continue et fortement convexe
Fermé, convexe, non vide
Hilbert (dim. finie ou infinie)
Existence ET Unicité d'un minimiseur.
Principes Fondamentaux de l'Optimisation Mathématique
L'optimisation mathématique s'intéresse à la recherche des meilleures solutions possibles pour un problème donné. Elle consiste à trouver les valeurs des entrées (variables) qui minimisent ou maximisent une fonction objectif, tout en respectant un ensemble de contraintes.
1. Problème Général d'Optimisation
Soit un espace vectoriel normé. Le problème d'optimisation général s'écrit : où :
est la fonction objectif (ou fonction de coût).
est l'ensemble des solutions admissibles (ou réalisables).
Remarque : Étudier est équivalent à étudier . Nous nous concentrerons donc principalement sur les problèmes de minimisation.
Types de Problèmes
Optimisation sans contraintes : Lorsque . La recherche se fait sur tout l'espace.
Optimisation sous contraintes : Lorsque est un sous-ensemble propre de ().
Définitions Clés
Infimum (m) : La plus grande des bornes inférieures de la fonction sur , noté . Cette valeur n'est pas nécessairement atteinte.
Minimiseur (ou solution) : Un point est un minimiseur (ou argument minimum) si .
Suite minimisante : Une suite d'éléments de telle que . Une telle suite existe toujours, même si le minimum n'est pas atteint.
Ensemble des minimiseurs : L'ensemble de tous les points où le minimum est atteint, noté .
Minimum Local vs. Global
Minimum Global : Un point est un minimum global si pour tout .
Minimum Local : Un point est un minimum local s'il existe un voisinage de tel que pour tout .
2. Rappels d'Analyse et Concepts Fondamentaux
Différentiabilité
Soient et deux espaces vectoriels normés réels, un ouvert de et .
Définition (Différentiabilité) : Une fonction est dite différentiable en s'il existe une application linéaire continue telle que :
L'application est la différentielle de en .
Dérivée directionnelle : Si est différentiable en , alors sa dérivée dans la direction est donnée par :
Cas d'un espace de Hilbert : Si est un espace de Hilbert et , le théorème de représentation de Riesz permet d'identifier la différentielle à un vecteur de , appelé gradient et noté . On a alors :
Ensembles et Fonctions Convexes
Définition (Ensemble Convexe) : Un sous-ensemble d'un espace vectoriel est convexe si pour tous et tout , le point appartient aussi à . Autrement dit, le segment est entièrement contenu dans .
Définition (Fonction Convexe) : Soit un ensemble convexe. Une fonction est convexe si pour tous et tout :
Géométriquement, la corde entre deux points du graphe de est toujours au-dessus du graphe.
Variantes de la Convexité
Strictement Convexe : L'inégalité est stricte pour et .
-convexe (ou fortement convexe) : Il existe tel que pour tous et : Une fonction -convexe est une fonction convexe à laquelle on a "ajouté" une forte courbure quadratique.
Propriété : Une fonction est -convexe si et seulement si la fonction est convexe.
Coercivité
Définition (Fonction Coercive) : Une fonction est coercive sur un ensemble non borné si :
Intuitivement, une fonction coercive "ne peut pas être minimale à l'infini". Cette propriété est essentielle pour garantir l'existence de solutions dans des ensembles non bornés.
3. Caractérisations pour les Fonctions Différentiables
Lorsque les fonctions sont différentiables, la convexité peut être caractérisée à l'aide de leurs dérivées. Soit une fonction différentiable sur un ouvert convexe .
Caractérisations du premier ordre (C¹)
Type de Convexité | Caractérisation par la sous-tangente | Caractérisation par la monotonie du gradient |
|---|---|---|
Convexe | pour tous | pour tous |
Strictement Convexe | pour tous | pour tous |
-Convexe | pour tous | pour tous |
Propriété importante : Si une fonction est -convexe, alors elle est coercive.
Caractérisations du second ordre (C²)
Si est deux fois différentiable, on utilise la matrice Hessienne, notée ou , qui est la matrice des dérivées partielles secondes : . Cette matrice est symétrique (théorème de Schwarz).
Convexité : est convexe si et seulement si sa matrice hessienne est semi-définie positive pour tout .
-Convexité : est -convexe si et seulement si Ceci est équivalent à dire que les valeurs propres de sont toutes supérieures ou égales à .
Stricte Convexité : Si est définie positive pour tout , alors est strictement convexe.
Attention, la réciproque est fausse. Par exemple, est strictement convexe, mais sa dérivée seconde s'annule en .
4. Existence et Unicité des Solutions
Propriétés liées à la Convexité
La convexité simplifie grandement la recherche de minima.
Théorème 1 : Soit une fonction convexe définie sur un ensemble convexe . Alors, tout minimum local de sur est un minimum global.
Théorème 2 : Soit une fonction strictement convexe sur un ensemble convexe . Si un minimum existe, il est unique.
Preuve de l'unicité : Soient et deux minimiseurs distincts, avec . Soit . Par stricte convexité : . C'est une contradiction car est le minimum. Donc .
Existence en Dimension Finie ()
En dimension finie, l'existence d'une solution est souvent garantie par le théorème de Weierstrass, qui stipule qu'une fonction continue sur un ensemble compact atteint ses bornes.
Théorème d'existence : Soit une fonction continue et un ensemble non vide et fermé. Le problème admet au moins une solution si l'une des conditions suivantes est vérifiée :
est borné (et donc compact car fermé en dimension finie).
n'est pas borné, mais est coercive.
Idée de la preuve pour le cas coercif : On montre que la recherche du minimum peut se restreindre à un sous-ensemble compact de .
Existence et Unicité en Dimension Infinie (Espaces de Hilbert)
En dimension infinie, les ensembles fermés et bornés ne sont pas nécessairement compacts. La coercivité seule ne suffit plus pour garantir l'existence.
Contre-exemple : Dans l'espace de Hilbert , considérons la fonction . Cette fonction est continue et coercive, mais n'est jamais atteint. La suite minimisante (avec et ailleurs) n'est pas convergente.
Pour garantir l'existence et l'unicité, une condition plus forte est nécessaire : la forte convexité.
Théorème d'existence et d'unicité (Lax-Milgram / Stampacchia) : Soit un sous-ensemble convexe, fermé et non vide d'un espace de Hilbert , et une fonction continue et -convexe.
Alors, le problème admet une solution unique .
Idée de la preuve : On montre que toute suite minimisante est une suite de Cauchy. Comme est complet (par définition d'un Hilbert) et est fermé, la suite converge vers une limite . Par continuité, est le minimum. L'unicité découle de la stricte convexité (qui est impliquée par l' -convexité).
Tableau Récapitulatif : Existence et Unicité
Hypothèses sur K | Hypothèses sur f | Conclusion sur les Solutions | Valide en dim. infinie ? |
|---|---|---|---|
Convexe | Convexe | Tout minimum local est global. L'ensemble des minimiseurs est convexe. | Oui |
Convexe | Strictement Convexe | Unicité : il y a au plus un minimiseur. | Oui |
Fermé, non vide, borné (dim. finie) | Continue | Existence : il y a au moins un minimiseur. | Non (compact requis) |
Fermé, non vide (dim. finie) | Continue et Coercive | Existence : il y a au moins un minimiseur. | Non |
Fermé, Convexe, non vide (Hilbert) | Continue et -convexe | Existence et Unicité d'un minimiseur. | Oui (Théorème clé) |
5. Formulation des Problèmes et Vocabulaire
En pratique, l'ensemble des contraintes est souvent décrit par des fonctions.
Les sont des contraintes d'inégalité.
Les sont des contraintes d'égalité.
Une contrainte d'inégalité est dite active (ou saturée) en si .
Typologies de Problèmes
Programmation Linéaire : est linéaire et est un polyèdre convexe (défini par des contraintes linéaires).
Programmation Quadratique : et est un polyèdre convexe.
Optimisation Convexe : est une fonction convexe et est un ensemble convexe.
Optimisation Différentiable : Les fonctions , , et sont différentiables.
Empezar cuestionario
Prueba tus conocimientos con preguntas interactivas