Description du cours :
L'optimisation consiste en la recherche du minimum (ou du maximum) d'une certaine fonction, appelée coût ou objectif, sur un certain ensemble. Lorsque l'ensemble en question est un espace de dimension finie on parle d'optimisation en dimension finie.
Objectifs du cours :
Introduire les différents types d'optimisation.
Étudier les conditions d'existence et d'unicité des solutions.
Calculer explicitement les solutions dans le cas des fonctions différentiables.
Introduire les algorithmes d'optimisation.
Prérequis : Analyse niveau L1, algèbre linéaire, fonctions de plusieurs variables.
Mots clés : Extremum, convexité, optimisation libre, optimisation contrainte, lagrangien, méthode de Newton, algorithme.
Chargés de TD :
Plan du cours :
Rappel sur les fonctions de plusieurs variables.
Différentiabilité.
Développement limité.
Convexité.
Existence et unicité de la solution d'un problème d'optimisation.
Minimiseur.
Existence.
Unicité.
Optimisation différentiable.
Optimisation libre.
Optimisation sous contraintes d'égalité.
Optimisation sous contraintes d'inégalité.
Optimisation sous contraintes mixtes.
Point-selle et dualité.
Algorithmiques.
Algorithme de gradient.
Algorithme de Newton.
Algorithme du gradient projeté.
Introduction à la programmation sous Mathematica.
Calcul de la note du cours ODF :
Note du module = 1/10 DV + 3/10 PROJ + 6/10 CF
où
DV : note du devoir.
PROJ : note du projet.
CF : note du contrôle final.
Références :
F. Bonnans (2006), Optimisation continue, Dunod.
G. Allaire (2016), Analyse numérique et optimisation, deuxième édition, Édition de l'école polytechnique.
F. Bonnans et S. Gaubert (2015), Recherche opérationnelle, Édition de l'école polytechnique.
J. M. Borwein et A. S. Lewis (2006), Convex analysis and nonlinear optimization, second edition, Springer.
H. H. Bauschke et P. L. Combettes (2011), Convex analysis and monotone operator theory in Hilbert spaces, Springer.