PFIA 2024
Performances et explicabilité de ViT et d’architectures CNN - une étude empirique utilisant LIME, SHAP et GradCam
Mélissa Colin, Ikram Chraibi Kaadoud
Ces dernières années, l’IA explicable a été mise en avant comme la solution à plébisciter pour créer de la confiance entre les utilisateurs et les systèmes d’IA. Dans cet ar- ticle, nous proposons une étude empirique pour discu- ter du lien entre les performances et l’explicabilité des algorithmes ViT, ResNet50,VGG16 et InceptionV3. Notre étude empirique utilise les approches d’explicabilité locale LIME, SHAP et GradCam. Nous montrons que l’explica- bilité peut être un outil pour questionner la représentation artificielle d’un algorithme et son comportement mais peut aussi présenter des problèmes de robustesse ou d’informa- tions contradictoires qui peuvent nuire à la confiance. Les résultats de notre étude montrent que multiplier les outils d’explicabilité permet de vérifier la fiabilité des explica- tions et des informations extraites.