La recherche récente dans le domaine de l’explicabilité dans l’apprentissage machine, a produit des frameworks comme SHAP qui fournissent des explications localement additives, permettant d’analyser facilement la relation entre la variation des variables d’observations et celle de la cible. Cependant peu de variables sont réellement actionnables, et certaines variables sont des conséquences d’autres variables, qui peuvent être absentes du jeu de données.