fr
|
en
Events

Avis de Soutenance Monsieur Hoang Nam NGUYEN

Date : 15/09/2023
Catégorie(s) :

Avis de Soutenance

Monsieur Hoang Nam NGUYEN

Informatique et mathématique

Soutiendra publiquement ses travaux de thèse intitulés

“Optimisation sous Contraintes en
Probabilité : Applications en Théorie des
Jeux et Processus de Décision Markovien”

dirigés par Monsieur Abdel LISSER 

Soutenance prévue le vendredi 15 septembre 2023 à 14h00
Lieu :   9 Rue Joliot Curie, Bâtiment Bouygues, 91190 Gif-sur-Yvette
Salle : SC.071


Composition du jury proposé 

M. René HENRION Weierstrass Institute for Applied Analysis and Stochastics Rapporteur 
M. Miguel LEJEUNE George Washington University  Rapporteur 
M. Yacine CHITOUR Laboratoire des signaux et systèmes (L2S) – Université Paris Saclay Examinateur
M. Vikas Vikram SINGH   Indian Institute of Technology Delhi Examinateur
Mme Nadia OUDJANE Electricité de France (EDF)  Examinatrice 
Mme Giorgia OGGIONI University of Brescia Examinatrice
Mots-clés :Contraintes en probabilité, Robustesse distributionelle, Convexité, Jeux tochastiques, Processus de décision Markovien,
 

Résumé :  L’optimisation sous contraintes en probabilité est un puissant cadre mathématique qui aborde les problèmes de prise de décision en présence d’incertitude. Il fournit une approche systématique pour traiter les paramètres aléatoires ou variables incertaines, permettant aux décideurs de tenir compte de la probabilité de violation de certaines contraintes tout en optimisant une fonction objectif. L’idée centrale derrière l’optimisation sous contraintes en probabilité est de s’assurer que la probabilité de violation des contraintes reste en dessous d’un seuil spécifié. Ce seuil représente le niveau de risque acceptable ou le niveau de confiance souhaité pour le décideur. Dans l’optimisation sous contraintes en probabilité, les paramètres incertains peuvent avoir des distributions connues ou inconnues. Lorsque la distribution des paramètres incertains est connue, des distributions de probabilité telles que la distribution normale (gaussienne), elliptique, un mélange de moyenne-variance normale ou une distribution discrète basée sur des données historiques peuvent être utilisées pour représenter l’incertitude. Dans de nombreuses situations pratiques, la distribution des paramètres incertains peut être inconnue ou difficile à estimer avec précision. Dans de tels cas, la distribution des paramètres incertains est supposée appartenir à un ensemble d’incertitude, ce qui conduit à un problème spécifique appelé optimisation sous contraintes en probabilité à robustesse distributionnelle. Cette approche vise à minimiser la probabilité de violation attendue dans le pire des cas sur l’ensemble d’incertitude des distributions, où l’ensemble d’incertitude est généralement construit à partir de données historiques. l’optimisation sous contraintes en probabilité trouve des applications significatives dans la théorie des jeux et les processus de décision Markovien (MDPs). Dans cette thèse, nous présentons d’abord un résultat théorique sur la convexité de l’optimisation sous contraintes en probabilité. Ensuite, nous étudions deux modèles spécifiques de la théorie des jeux et des MDPs impliquant l’optimisation sous contraintes en probabilité, connus sous le nom de jeux sous contraintes en probabilité (CCGs) et processus de décision Markovien sous contraintes en probabilité à robustesse distributionnelle (DRCCMDPs). Nous considérons différentes hypothèses sur la distribution des paramètres incertains. Dans les CCGs, sous certaines conditions, nous démontrons l’existence d’un équilibre de Nash du jeu. Les DRCCMDPs peuvent être modélisés comme un problème d’optimisation sous contraintes en probabilité à robustesse distributionnelle, où un décideur cherche à maximiser la valeur actualisée attendue d’une fonction de récompense. Sous certaines conditions, nous reformulons le problème d’optimisation de manière équivalente en un problème déterministe, qui peut être résolu efficacement par des solveurs connus.

Abstract: Chance-constrained optimization is a powerful mathematical framework that addresses decision-making problems in the presence of uncertainty. It provides a systematic approach to handle random parameters or uncertain variables, allowing decision-makers to account for the likelihood of violating certain constraints while optimizing an objective function. The core idea behind chance-constrained optimization is to ensure that the probability of constraint violation remains below a specified threshold. This threshold represents the acceptable level of risk or confidence level for the decision-maker. In chance-constrained optimization, uncertain parameters can have known or unknown distributions. When the distribution of uncertain parameters is known, probability distributions such as Normal (Gaussian), elliptical, normal mean-variance mixture or discrete distribution with support based on historical data can be utilized to represent the uncertainty. In many practical situations, the distribution of uncertain parameters may be unknown or difficult to estimate accurately. In such cases, the distribution of uncertain parameters is assumed to belong to an uncertainty set, which leads to a specific problem, called distributionally robust chance-constrained optimization. This approach seeks to minimize the worst-case expected violation probability over the uncertainty set of distributions, where the uncertainty set is usually constructed based on historical data. Chance-constrained optimization has significant applications in game theory and Markov Decision Processes (MDPs). In this dissertation, we first present a theoretical result of the convexity of chance-constrained optimization. Next, we gstudy two specific models of game theory and MDPs involving chance-constrained optimization, known as chance-constrained games (CCGs) and distributionally robust chance-constrained Markov decision processes (DRCCMDPs). We consider different assumptions on the distribution of uncertain parameters. In CCGs, under certain conditions, we show the existence of a Nash equilibrium of the game. DRCCMDPs can be modelled as a distributionally robust chance-constrained optimization problem, where a decision maker is interested in maximizing the expected discounted value of a reward function. Under certain conditions, we reformulate the optimization problem equivalently as a deterministic problem, which can be solved efficiently by commercial solvers.