Avis de Soutenance
Monsieur Eduardo DADALTO CÂMARA GOMES
Informatique
Soutiendra publiquement ses travaux de thèse intitulés
Amélioration de la fiabilité de l’intelligence artificielle par la détection des données hors distribution et des erreurs de classification
dirigés par Monsieur Pablo PIANTANIDA
Soutenance prévue le mardi 19 mars 2024 à 13h30
Lieu : CentraleSupélec – Bâtiment Bouygues 9 Rue Joliot Curie, 91190 Gif-sur-Yvette
Salle : E.212
Lien TEAMS: https://teams.microsoft.com/l/meetup-join/19%3ameeting_YmRmNzI0NjQtMTc3OC00YTQ1LWE3ZjgtYTIyYTNjZmYyOWFh%40thread.v2/0?context=%7b%22Tid%22%3a%2261f3e3b8-9b52-433a-a4eb-c67334ce54d5%22%2c%22Oid%22%3a%2209477540-4f1a-457c-bd5e-330f0b941cfc%22%7d
Composition du jury proposé
Mme Florence D’ALCHÉ-BUC | LTCI / Télécom Paris / Institut Polytechnique de Paris | Examinatrice |
M. Pascal POUPART | University of Waterloo / Vector Institute | Examinateur |
M. Nicolas THOME | Sorbonne Université / MLIA / ISIR | Examinateur |
M. Nicolas VAYATIS | Ecole normale supérieure Paris-Saclay / Centre Borelli / CNRS / Université Paris-Saclay | Examinateur |
M. Yann CHEVALEYRE | Université Dauphine – PSL / LAMSADE / CNRS | Rapporteur |
M. Yves GRANDVALET | CNRS / Université de Technologie de Compiègne (UTC) / Heudiasyc | Rapporteur |
M. Pierre DUHAMEL | CNRS | Invité |
Mots-clés : | Apprentissage profond,Changement de distribution des données,Fiabilité de l’IA,Apprentissage automatique,Vision par ordinateur,NLP |
Résumé : |
Cette thèse explore l’interaction cruciale entre l’intelligence artificielle (IA) et la sécurité, avec pour objectif de relever les défis associés au déploiement de systèmes intelligents dans des contextes réels. Malgré les avancées notables en IA, des préoccupations concernant la confidentialité, l’équité et la sécurité ont surgi, soulignant ainsi la nécessité de renforcer la fiabilité des systèmes d’IA. En se concentrant sur la détection des données hors distribution (OOD) et des erreurs de classification, cette recherche offre une perspective plus approfondie de la confiance accordée au modèle, tout en permettant d’identifier les prédictions nécessitant une intervention humaine. Les travaux présentés dans cette thèse contribuent ainsi au développement de modèles d’apprentissage automatique plus fiables, capables de fonctionner efficacement dans une diversité d’environnements réels, dynamiques et variés. |
English version:
Title: Improving Artificial Intelligence Reliability through Out-of-Distribution and Misclassification Detection
Keywords: Deep Learning, Data Distribution Shift, Thurstworthy AI, Machine Learning, Computer Vision, NLP.
Abstract:
This thesis explores the crucial intersection between artificial intelligence (AI) and security, aiming to address challenges related to the deployment of intelligent systems in real-world scenarios. Despite significant progress in AI, concerns regarding privacy, fairness, and safety have emerged, prompting the need to enhance the reliability of AI systems. Through out-of-distribution (OOD) detection and classification error detection, this research provides a more nuanced understanding of model confidence and helps identify predictions requiring human intervention. The work presented in this thesis contributes to the development of more reliable machine learning models capable of operating effectively in diverse and dynamic real-world environments.