AIPTLF 2025 - du 8 au 11 juillet 2025
Qualité de Vie :
Du Travail aux Autres Sphères de l'Existence
Session :
Des IA Explicables pour le Secteur Nucléaire : Vers des Technologies Acceptables et Soutenables
BENNANI R. 1,2, BOBILLIER-CHAUMON M. 1, FREJUS M. 2
1 CNAM/CRTD, Paris , France; 2 EDF R&D SEQUOIA, Palaiseau, France
Résumé
1. Contexte de l'étude et problématisation théorique
Cette communication à visée conceptuelle redéfinit l'explicabilité et l'appropriation des systèmes d'intelligence artificielle (SIA) en milieu professionnel, une problématique centrale dans l'adoption de l'IA à l'échelle mondiale. Elle s'appuie sur les premières analyses réalisées dans le cadre du démarrage d'une thèse CIFRE accompagnant la conception d'une IA pour la maintenance de centrales nucléaires, confrontées à des phénomènes critiques de colmatage (accumulation de débris) sur des circuits de refroidissement. Ce cas d'étude illustre des enjeux largement partagés dans de nombreux secteurs industriels et de services où les SIA sont déployés pour améliorer la prise de décision dans des contextes complexes. Cependant, leur opacité soulève des défis d'explicabilité essentiels pour leur appropriation, comme le confirment plusieurs études (Vuarin & Steyer, 2023). Les travaux de Bouzekri & Rivière (2022) montrent que les attentes en termes d'explication varient selon les individus, tandis qu'une étude dans une centrale EDF (Turpin & Frejus, 2023) révèle l'importance du contexte organisationnel et des profils d'utilisateurs - facteurs récurrents dans les déploiements d'IA en entreprise.
Dans cette communication, nous proposons de dépasser les conceptions technocentrées de l’explicabilité, souvent réduites à des démonstrations techniques, pour adopter une approche anthropocentrée. Celle-ci considère l'explicabilité comme un processus pluridimensionnel impliquant l'explication, l'interprétabilité, la transparence, la confiance et la responsabilité. En s’appuyant sur la notion « d'explication » comme pont entre la complexité des systèmes et la compréhension des utilisateurs, notre intervention consistera à expliciter trois dimensions qui nous semblent pertinentes pour mieux rendre compte de l’explication et de l'appropriation des artefacts techniques, en les inscrivant dans le travail (réel) qui se fait.
2. Proposition conceptuelle
Nous analysons l'explication des systèmes d'IA à travers trois dimensions complémentaires :
(1) L'explicabilité instrumentale, fondée sur l'approche de Rabardel (1995) et l'acceptation située de Bobillier-Chaumon (2016), examine l'adéquation des dispositifs aux besoins opérationnels des utilisateurs. Elle analyse les informations nécessaires à la compréhension des explications, leur format et leur intégration dans les activités professionnelles, en évitant surcharge cognitive et altération des performances.
(2) L'explicabilité interactionnelle, centrée sur les interactions humain-machine. Elle prend en compte les asymétries d'accès à l'information et les contraintes contextuelles. Elle explore comment les interfaces peuvent renforcer l'efficacité des interactions entre utilisateurs et SIA, tout en intégrant les échanges entre utilisateurs aux profils variés.
(3) L'explicabilité systémique considère l'intégration des SIA dans les structures organisationnelles. Elle analyse leur impact sur le collectif de travail, les cadres réglementaires et les processus organisationnels.
Cette approche tripartite invite à réfléchir aux transformations induites par ces outils dans les systèmes d'activité et offre un cadre d'analyse pour faciliter l'adoption réussie de l'IA dans divers contextes professionnels, contribuant ainsi à la compréhension globale des facteurs clés de succès dans l'implémentation des technologies d'intelligence artificielle.
References: