PFIA 2024

RJCIA CNIA

Performances et explicabilité de ViT et d’architectures CNN -  une étude empirique utilisant LIME, SHAP et GradCam

Mélissa Colin, Ikram Chraibi Kaadoud

le  jeu, 17:15 ! En direct dans  Amphi Rivero pendant  30min pour  RJCIA - Session 4

Ces dernières années, l’IA explicable a été mise en avant comme la solution à plébisciter pour créer de la confiance entre les utilisateurs et les systèmes d’IA. Dans cet ar- ticle, nous proposons une étude empirique pour discu- ter du lien entre les performances et l’explicabilité des algorithmes ViT, ResNet50,VGG16 et InceptionV3. Notre étude empirique utilise les approches d’explicabilité locale LIME, SHAP et GradCam. Nous montrons que l’explica- bilité peut être un outil pour questionner la représentation artificielle d’un algorithme et son comportement mais peut aussi présenter des problèmes de robustesse ou d’informa- tions contradictoires qui peuvent nuire à la confiance. Les résultats de notre étude montrent que multiplier les outils d’explicabilité permet de vérifier la fiabilité des explica- tions et des informations extraites.

 Aperçu  Programme

Types de présentations
Invitation Présentation Ateliers Tutoriels Organisation Démonstration Poster Table ronde
Légende
Invitation Prix Article long Article court Positionnement Prospection Déjà publié Communication orale Poster Démonstration Partenaire Information Table ronde Multiple Repas Apéritif Café Promenade