Gestion de l'inconsistance par l'interaction

Par ai2d , 9 novembre, 2016

Il existe de nombreuses situations où le processus d'aide à la décision est une interaction entre un agent artificiel et un humain (un décideur). Le décideur à un problème de décision, des préférences vis à vis des options qui s'offrent à lui, et est responsable de la décision finale. L'agent artificiel à pour mission d'aider à résoudre le problème et d'éclairer le décideur sur la recommandation. Un exemple est celui des systèmes de recommandations en ligne, ou le rôle du système est de suggérer des items aux utilisateurs qui souhaitent les acheter (voyage, livre, etc.). Dans ce contexte, le défi pour l'agent artificiel est d'être en mesure de s'adapter aux réponses du décideur et de prendre en compte ses remarques et ses retours. Ces retours peuvent exprimer un changement d'avis sur une précédente affirmation, un ajout d'une nouvelle donnée, une demande pour une explication, etc.

Dans le cadre de ce stage, nous considérons un problème de décision multicritère ou l'objectif du système est de répondre à la question  «  est ce qu'une option x est meilleure qu'une option y ? », en prenant en compte les évaluations des deux options sur différents critères. Nous prenons également, comme modèle de décision : la somme pondérée possible. Le possible signifie : quelque soit le jeu de poids considéré pour représenter les préférences du décideur, la recommandation est la même. Donc, l'interaction entre le système et l'utilisateur a pour but d'arriver à une réponse à la question qui soit satisfaisante pour le décideur. Toutefois, il existe plusieurs situations où l'interaction peut échouer et se terminer sans que le système puisse fournir une recommandation acceptable. Dans le cadre de ce stage nous nous nous intéresserons à deux situations : l'inconsistance et le backtacking. Par inconsistance, nous faisons référence au fait que le système n'est pas capable de fournir une recommandation qui restitue complétement les préférences du décideur (récoltés tout au long de l'interaction). Du coup, la recommandation n'est pas satisfaisante. Le backtracking correspond au fait que le décideur change d'avis et revient sur des affirmations sur lesquels il s'était engagé durant le dialogue et cela peut mener à des situations de bloquage, de contradiction ou même d'inconsistance.

Le travail demandé durant ce stage consiste en premier à modéliser le protocole d'interaction entre un système et un humain qui permettra non seulement de résoudre le problème de décision multicritère, de fournir une recommandation mais aussi de gérer les situations d'inconsistance et de backtracking. Plus précisément, il s'agit de mettre en place une stratégie qui permettra au système de fournir une recommandation tout en résolvant l'inconsistance et en prenant en charge le backtracking. Par la suite, Par la suite, une implémentation de ce protocole est attendue.

Références

* V. Mousseau, L.C. Dias, J. Figueira, C. Gomes and J.N. Climaco. Resolving inconsistencies among constraints on the parameters of an MCDA model. European Journal of Operational Research, 147(1):72-93, 2003.
* C. Labreuche, N. maudet, W. Ouerdane and S. Parsons. A dialogue game for recommendation with adaptive preference models. AAMAS2015.
* S. Greco, R. S lowinski, J. Figueira, and V. Mousseau. Robust ordinal regression. In Trends in Multiple Criteria Decision Analysis, pages 241{284. Springer Verlag, 2010.

Lieu
Ecole Centrale Paris
Thématiques
Encadrant
W. Ouerdane
Co-encadrant
N. Maudet
Référent universitaire
Safia Kedad-Sidhoum
Tags
Attribué
Non
Année
2017