picture_as_pdf Télécharger en PDF

AIPTLF 2025 - du 8 au 11 juillet 2025

Qualité de Vie :
Du Travail aux Autres Sphères de l'Existence

Session :

Vers une approche pluridisciplinaire de l’IA : rendre les outils génératifs plus transparents et plus acceptables en entreprise

AGOSSAH A. 1, MONTELS F. 1, POTIN J. 1

1 SII Sud-Ouest, Toulouse, France

Introduction

En milieu professionnel, l’introduction de solutions IA soulève parfois des problématiques liées à l’évolution de la place des employés dans les activités. Un enjeu majeur est le manque de prise en compte des utilisateurs et des contraintes organisationnelles lors de la conception et/ou du déploiement de ces outils. Négliger l’un de ces aspects entraîne souvent une résistance au changement des employés ou une interdiction d’usage par l’entreprise (Agossah, 2024 ; Park, 2024). Cette étude explore les moyens sociotechniques mobilisables pour accroître l’acceptabilité d’un outil de fouille documentaire basé sur un Large Language Model (LLM).
 
Contexte théorique 
Le déploiement local de LLM répond bien souvent à des exigences de sécurité des données et de gestion des ressources allouées à leur bon fonctionnement (Sarker, 2024). Cependant, ces modèles posent des défis en matière de transparence et d’adéquation aux besoins des organisations. Depuis 2018, l’Union européenne promeut une « IA de confiance », fiable et responsable (Floridi et al., 2018), renforcée par des réglementations naissantes comme l’IA Act. Pourtant, les LLM, englobant plusieurs milliards de paramètres, rendent difficile cet objectif. Pour y parvenir, il est essentiel d’impliquer toutes les parties prenantes – employés, concepteurs et décideurs – pour cadrer le socle technologique selon les besoins individuels et collectifs de l’entreprise, tout en optimisant acceptabilité et impact organisationnel (Borel et al., 2023).
 
Méthodologie 
Cette étude vise à accompagner un service de support dont une partie de leur activité est de la recherche documentaire. Nous adoptons une démarche centrée sur le besoin, en faisant expérimenter librement des utilisateurs cibles et en recueillant des retours principalement de manière top-down (en partant des objectifs stratégiques des décideurs et en les déclinant avec les retours des utilisateurs). Des ateliers collaboratifs avec un démonstrateur, des entretiens individuels et des questionnaires d’acceptation de l’IA (Dahri et al., 2024) sont mis en place pour identifier les besoins spécifiques des utilisateurs finaux et des parties prenantes. Ces retours alimentent une boucle d’itération permettant d’ajuster la solution technologique au fil du développement.

Résultats 
Les premières phases de données ont révélé un manque de spécificité de l’outil, avec un référentiel souvent inadapté. L’approche de Retrieval Augmented Generation (RAG) a été testée pour limiter les écarts contextuels et hallucinations du LLM en le restreignant à des corpus spécifiques, favorisant des réponses plus pertinentes. Des ajustements, liés aux retours des utilisateurs, ont conduit à intégrer l’identification des sources documentaires des réponses du LLM les plus pertinentes et de leur attribuer un indice de fiabilité, renforçant la transparence. Une nouvelle collecte a montré une meilleure acceptation de l’outil, notamment chez les profils juniors l’utilisant pour monter en compétences.

Discussion 
Ce projet souligne l'importance d’une approche centrée sur l’utilisateur dans la conception d’une IA. L’implication des parties prenantes favorise une solution robuste et transparente. Une récolte de données longitudinale montre une meilleure acceptation. Les travaux se poursuivront par une observation comportementale à long terme et la réplication de la méthodologie sur d’autres cas d’usage.

References:

  • Agossah, A.. Acceptabilité de l’Intelligence Artificielle en contexte professionnel : facteurs d’influence et méthodologies d’évaluation. Intelligence artificielle [cs.AI]. Nantes Université, 2024. Français. ?NNT : 2024NANU4022?. ?tel-04826567?
  • Borel, S., Ferguson, Y., Condé, J. & Borel, S. (2024). Etude des impacts de l’IA sur le travail : Synthèse générale du rapport d’enquête du LaborIA Explorer
  • Dahri, N. A., Yahaya, N., Al-Rahmi, W. M., Aldraiweesh, A., Alturki, U., Almutairy, S., ... & Soomro, R. B. (2024). Extended TAM based acceptance of AI-Powered ChatGPT for supporting metacognitive self-regulated learning in education: A mixed-methods study. Heliyon, 10(8).
  • Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Vayena, E. (2018). AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. Minds and machines, 28, 689-707.
  • Park, J., & Park, H. (2024). Enablers and Inhibitors of Generative AI Usage Intentions in Work Environments. Journal of Korean Society for Quality Management, 52(3), 509-527.
  • Sarker, I. H. (2024). AI-driven cybersecurity and threat intelligence: cyber automation, intelligent decision-making and explainability. Springer Nature.