Contexte
Il existe de nombreuses situations où le processus d'aide à la décision est une interaction entre un agent artificiel et un humain (un décideur). Le décideur a un problème de décision, des préférences vis à vis des options qui s'offrent à lui, et est responsable de la décision finale. L'agent artificiel a pour mission d'aider à résoudre le problème et d'éclairer le décideur sur la recommandation. Un exemple est celui des systèmes de recommandations en ligne, où le rôle du système est de suggérer des items aux utilisateurs qui souhaitent les acheter (voyage, livre, etc.). Dans ce contexte, le défi pour l'agent artificiel est d'être en mesure de s'adapter aux réponses du décideur et de prendre en compte ses remarques et ses retours. Ces retours peuvent exprimer un changement d'avis sur une précédente affirmation, un ajout d'une nouvelle donnée, une demande pour une explication, etc.
Dans le cadre de ce stage, nous considérons un problème de décision multicritère où l'objectif d’un agent est de répondre à la question « est ce qu'une option x est meilleure qu'une option y ? », en prenant en compte les évaluations des deux options sur différents critères. Nous prenons également, comme modèle de décision : la somme pondérée possible. Le qualificatif « possible » signifie que la recommandation est valide pour au moins un jeu de poids permettant de représenter les préférences du décideur. L'interaction a pour but de fournir des réponses éclairées aux questions posées par le décideur. Toutefois, il existe plusieurs situations où l'interaction peut échouer et se terminer sans que l’agent artificiel puisse fournir une recommandation acceptable. Dans le cadre de ce stage nous nous nous intéresserons à deux situations : l'inconsistance et le « retour en arrière (backtracking) ». Par inconsistance, nous faisons référence au fait que l'agent artificiel n'est pas capable de fournir une recommandation qui restitue complètement les préférences du décideur (récoltées tout au long de l'interaction). Le backtracking quant à lui correspond au fait que le décideur change d'avis et revient sur des affirmations sur lesquels il s'était engagé durant le dialogue et cela peut mener à des situations de blocage, de contradiction ou même d'inconsistance.
Travail demandé
Le travail demandé durant ce stage consiste en premier à modéliser le protocole d'interaction entre un agent artificiel et un humain qui permettra non seulement de résoudre le problème de décision multicritère, de fournir une recommandation mais aussi de gérer les situations d'inconsistance et de backtracking. Plus précisément, il s'agit de mettre en place les stratégies qu'un système peut suivre durant une interaction et qui lui permettront de fournir une recommandation tout en résolvant l'inconsistance et en prenant en charge le backtracking. Par la suite, une implémentation de ce protocole est attendue.
Pour répondre à la question, on s'appuiera sur des outils, modèles à la fois de la théorie de la décision (permettant de représenter les préférences et résoudre le problème de décision) et de l'intelligence artificielle (permettant de décrire le jeu de dialogue)
Environnement et prérequis
Lieu de stage : LIP6, UMPC (Quelques visites à CentraleSupélec, campus de GIF)
Durée : 6 mois
Prérequis : Intelligence Artificielle, théorie de la décision, programmation
Contacts : Pour plus de renseignements, ou pour candidater (fournir CV, lettre de motivation, lettre de recommandation, et relevés de notes), s’adresser à Wassila Ouerdane (wassila.ouerdane@centralesupelec.fr), Nicolas Maudet (nicolas.maudet@lip6.fr) et Khaled Belahcene (khaled.belahcene@centralesupelec.fr)
Références
C. Labreuche, N. Maudet, W. Ouerdane and S. Parsons. A dialogue game for recommendation with adaptive preference models. AAMAS 2015.
V. Mousseau, L.C. Dias, J. Figueira, C. Gomes and J.N. Climaco. Resolving inconsistencies among constraints on the parameters of an MCDA model. European Journal of Operational Research, 147(1):72-93, 2003.
S. Greco, R. Slowinski, J. Figueira, and V. Mousseau. Robust ordinal regression. In Trends in Multiple Criteria Decision Analysis, pages 241-284. Springer Verlag, 2010.
S. Destercke . A Generic Framework to Include Belief Functions in Preference Handling for Multi-criteria Decision. In: Antonucci A., Cholvy L., Papini O. (eds) Symbolic and Quantitative Approaches to Reasoning with Uncertainty. ECSQARU 2017.