Gabriel Ferrettini, Elodie Escriva, Julien Aligon, Jean-Baptiste Excoffier & Chantal Soulé-Dupuy
*Détails des auteurs accessibles sur la publication
Inf Syst Front (2021). https://doi.org/10.1007/s10796-021-10141-9Published: 22 May 2021
Comme l'apprentissage automatique (ML) est maintenant largement appliqué dans de nombreux domaines, tant dans la recherche que dans l'industrie,
la compréhension de ce qui se passe à l'intérieur de la boîte noire devient une demande croissante, en particulier par les non-experts de ces modèles.
Cet article propose des méthodes basées sur la détection de groupes d'attributs pertinents - nommés coalitions - influençant une prédiction et les compare avec la littérature.
Nos résultats montrent que ces méthodes de coalition sont plus efficaces que les méthodes existantes telles que SHapley Additive exPlanation (SHAP). Le temps de calcul est réduit tout en préservant une précision acceptable des explications de prédiction individuelles. Par conséquent,
cela permet une utilisation pratique plus large des méthodes d'explication afin d'accroître la confiance entre les modèles ML développés, les utilisateurs finaux et toute personne touchée par une décision où ces modèles ont joué un rôle.
Consulter l'article complet