En 2025, le projet MAIA a co-financé 8 thèses.
Développement de méthodes AI et XAI pour identifier de nouveaux marqueurs diagnostics et pronostics dans l'adénocarcinome canalaire pancréatique
Directeur(s) :
- Mathieu Gautier
- Mouny Samy Modeliar
Laboratoire(s) d'accueil :
- LPCM - Laboratoire de Physiologie Cellulaire et Moléculaire
Résumé :
- L'adénocarcinome canalaire pancréatique (ACP) est la forme majoritaire des cancers du pancréas, avec un faible taux de survie et une mauvaise réponse aux chimiothérapies, principalement à cause de la présence d'un type cellulaire spécifique que sont les CAF (cancer-associated fibroblast). Notre laboratoire cherche à mettre en évidence de nouveaux biomarqueurs de la niche tumorale pancréatique dans les tissus de patients, en étudiant l'expression protéique de marqueurs spécifiques des CAF et de certains transporteurs magnésiques par la technique d'immunohistochimie, et en analysant ces expressions grâce à des systèmes d'intelligence artificiel. L'objectif dans le cadre de ce projet MAIA est d'apprendre à l'ordinateur à reconnaitre le type de cellule (Épithéliale ou CAF) et leur implication dans l'ACP (zones tumorales ou non-tumorales) en fonction d'images de l'expression des marqueurs spécifiques de chaque type cellulaire. Pour cela, il est nécessaire de procéder en plusieurs étapes : Étape 1 : Aligner les cellules provenant d'images de différents marqueurs afin de créer et d'annoter un dataset. Étape 2 : Créer différents modèles de Machine Learning (ML) qui prédisent le type des cellules. Étape 3 : Expliquer pourquoi certaines tumeurs sont agressives (par la présence des différents soustypes de CAF) pour mettre en évidence les marqueurs les plus prometteurs. Le projet que nous proposons vise à analyser l'importance des cellules de type CAF dans le diagnostic et la prédiction de l'agressivité de l'adénocarcinome canalaire pancréatique (ACP) en utilisant des méthodes IA dans une démarche interdisciplinaire en associant les compétences de chirurgiens, pathologistes, physiologistes, et informaticiens.
De l'apprentissage fédéré décentralisé pour l'analyse des données de patients
Directeur(s) :
- Wafa Badreddine
- Gilles Dequen
Laboratoire(s) d'accueil :
- MIS - Unité de recherche Modélisation, Information et Systèmes
Résumé :
- L'apprentissage fédéré décentralisé (DFL - Decentralized Federated Learning) consiste en une approche décentralisée pour entrainer un modèle d'apprentissage. Son utilisation, notamment dans le domaine de la santé, permet un entraînement collaboratif sans partage de données sensibles entre les nuds et sans besoin d'un central pour gérer, synchroniser et fusionner les paramètres du modèle d'apprentissage. Les données propres à chaque patient sont collectées via des réseaux de capteurs corporels sans fil (WBAN - Wireless Body Area Networks) où des capteurs sans fil sont placés sur le corps humain afin de superviser et de collecter des données physiologiques, des données cinématiques, ou autres types de données. Un équipement central, souvent appelé -puits-, joue le rôle d'une passerelle entre le réseau WBAN et le réseau extérieur (médecins, infirmiers, pharmaciens...). Ces dispositifs en périphérie (les « puits ») vont collaborer à créer un modèle global en s'appuyant sur des données en local.
Localisation et dimensionnement des unités mobiles de soins dans les déserts médicaux
Directeur(s) :
- Corinne Lucet
- Rui sa Shibasaki
Laboratoire(s) d'accueil :
- MIS - Unité de recherche Modélisation, Information et Systèmes
Résumé :
- Ce projet de recherche vise à développer un outil d'intelligence artificiel (IA) qui puisse proposer des scénarios-solutions pour le problème de localisation et de dimensionnement des unités mobiles de soins médicaux pour améliorer l'accès aux soins dans les déserts médicaux. L'objectif est de maximiser la couverture du territoire en tenant compte des besoins des patients, de la disponibilité des soignants, ainsi que de l'incertitude de la demande en services de santé. L'outil proposera une l'IA acceptable, dans la mesure où les solutions proposées favoriseront les besoins de la population
Vers une IA d'Essaim explicable et fiable fondée sur la satisfiabilité (maximum)
Directeur(s) :
- Stéphane Devismes
- Sami Cherif
Laboratoire(s) d'accueil :
- MIS - Unité de recherche Modélisation, Information et Systèmes
Résumé :
- Ce projet de thèse vise à développer des algorithmes robustes pour l'IA d'essaim en s'appuyant sur la satisfiabilité propositionnelle (SAT) et son extension naturelle en problème d'optimisation, la satisfiabilité maximum (MaxSAT). L'objectif est d'analyser, valider, synthétiser et optimiser des algorithmes distribués adaptés à des robots lumineux dotés de capacités limitées, tels que l'utilisation de signaux visuels pour la communication. En modélisant ces algorithmes sous forme de formules SAT, il devient possible de garantir leur correction formelle, en identifiant et corrigeant les éventuelles défaillances, tout en automatisant leur conception selon des spécifications précises. L'utilisation de Max-SAT peut également contribuer à simplifier et à optimiser les règles des algorithmes, en produisant des solutions non seulement efficaces et adaptées aux contraintes matérielles des robots, mais aussi hautement explicables. Cette explicabilité est essentielle pour comprendre les mécanismes sous-jacents des comportements collectifs des essaims de robots, permettant de rendre ces systèmes transparents et de renforcer la confiance dans leur déploiement et renforçant ainsi leur applicabilité dans divers domaines tels que la logistique, l'exploration et la surveillance.
Optimisation de la sélection d'attributs pour l'analyse des phénomènes météorologiques régionaux
Directeur(s) :
- Arnaud Liefooghe
- Anton Sokolov
Laboratoire(s) d'accueil :
- LISIC - Laboratoire d'Informatique, Signal et Image de la Côte d'Opale
Résumé :
- L'IA explicable vise à rendre les recommandations des systèmes d'IA plus transparentes et interprétables. La sélection d'attributs, composante clé de ce processus, consiste à choisir un sous-ensemble d'attributs pertinents pour les modèles d'induction, tout en préservant la sémantique originale des données. Cette sélection peut être formulée comme un problème d'optimisation. Cependant, sa complexité intrinsèque soulève des verrous scientifiques qui contraignent les méthodes actuelles à produire des solutions sous-optimales, révélant ainsi un biais encore mal compris dans les approches existantes. Ce projet de thèse interdisciplinaire vise à étudier et améliorer ces technologies dans le cadre de l'optimisation et de l'IA explicable, tout en évaluant leurs avantages dans le domaine environnemental. En effet, la sélection d'attributs trouve des applications dans divers domaines, notamment l'étude des phénomènes météorologiques. En particulier, nous nous intéresserons à la prédiction et à l'analyse des événements extrêmes, ainsi qu'à l'étude de la répartition de la pollution atmosphérique dans le contexte des changements climatiques régionaux. Le développement des énergies vertes s'inscrit dans une perspective plus large de développement économique régional. Ce projet exploitera ainsi des données locales de télédétection, des données globales de réanalyses (ERA5), et celles provenant de divers modèles climatiques.
Méthodes d'apprentissage pour l'échantillonnage et la complétion de questionnaires dans les enquêtes quantitatives en sciences sociales
Directeur(s) :
- Matthieu Puigt
- Jordan Creusier
Laboratoire(s) d'accueil :
- LISIC - Laboratoire d'Informatique, Signal et Image de la Côte d'Opale
Résumé :
- La collecte de données quantitatives par questionnaire est une des techniques les plus répandues en sciences sociales. Or, lorsque plusieurs temps de collectes sont nécessaires auprès d'une même population pour obtenir une contribution théorique significative, les participants sont souvent découragés par la longueur des questionnaires. Afin d'éviter des biais dus à la longueur de tels questionnaires (biais d'inattention ou de fatigue), nous proposons de nouvelles stratégies innovantes d'acquisition de données ‒ utilisant la plateforme QLAPP (Questionnaire mobiLe APPlication, https://qlapp.org) que nous avons récemment proposée ‒ ainsi que des techniques de factorisation et complétion matricielle dédiées à l'estimation des données manquantes. L'apport de stratégies d'apprentissage actif pour optimiser le choix des questions à conserver sera aussi étudié. Plus particulièrement, dans le cadre de cette thèse de doctorat, nous chercherons (i) à réduire la taille des questionnaires par échantillonnage randomisé et/ou par apprentissage actif, afin de réduire les biais introduits précédemment, et (ii) à compléter les données manquantes par factorisation matricielle pondérée. En particulier, nous chercherons à développer des approches à la fois rapides et robustes aux valeurs aberrantes.
Vers une IA intuitive et acceptable basée sur l'argumentation
Directeur(s) :
- Srdjan Vesic
- Mathieu Hainselin
Laboratoire(s) d'accueil :
- CRIL - Centre de recherche en informatique de Lens
Résumé :
- La théorie de l'argumentation computationnelle fournit des outils essentiels pour analyser des débats structurés, avec des applications dans les plateformes de discussion en ligne et les systèmes de prise de décision assistés par IA. Dans ce cadre, les arguments sont évalués selon des sémantiques d'acceptabilité, qui s'appuient sur des principes déterminant leur force et leur pertinence. Cependant, l'alignement de ces sémantiques avec l'intuition humaine reste à explorer, limitant leur acceptabilité et explicabilité. Cette thèse vise à évaluer et améliorer cet alignement, en abordant plusieurs objectifs. Elle testera d'abord si les principes actuels sont perçus intuitivement par les utilisateurs, identifiant les éventuelles divergences. Ensuite, elle examinera la capacité explicative de ces principes pour mieux éclairer les sémantiques d'acceptabilité, avant de formaliser, si nécessaire, de nouveaux principes et sémantiques plus alignés avec la perception humaine. Enfin, elle évaluera l'intuitivité des mesures d'impact, essentielles pour comprendre l'influence des arguments dans les débats. En collaboration avec des psychologues, cette recherche ajustera les principes en fonction des résultats expérimentaux, contribuant ainsi à une IA plus explicable et responsable. Les résultats de cette thèse contribueront non seulement à l'avancement théorique de l'argumentation computationnelle, mais également à des applications concrètes comme la gestion des débats en ligne et la prise de décision assistée dans des domaines critiques comme la santé et l'environnement.
Dissolution, Génération et Réticulation de biopolymères : Vers la prédiction de relations structure-propriétés par apprentissage automatique via une approche combinée théorique/expérimentale (DiGéRé)
Directeur(s) :
- Christine Cézard
- Pr. Albert Nguyen van Nhien
Laboratoire(s) d'accueil :
- Laboratoire de Glycochimie et des Agroressources d’Amiens – LG2A
Résumé :
- Ce projet propose une utilisation conjointe de méthodes expérimentales et de chimie computationnelle pour l’étude de la dissolution puis (ré)-génération de biopolymères ad hoc dans de nombreux solvants verts, seul et en mélange dans l’optique de comprendre au niveau moléculaire les mécanismes de dégradation puis de réticulation des fragments polymères par les entités constitutives des solvants.
L’objectif du projet est de produire pour chaque étape de ce travail des jeux de données permettant d’alimenter des méthodes d’apprentissage automatique afin de prédire (i) les compositions de solvants capables de dissoudre puis régénérer efficacement un biopolymère et (ii) les compositions et tailles de biopolymères hybrides présentant des propriétés ad hoc.