Une étude menée par le professeur à HEC Paris et chercheur associé au centre Hi!PARIS, David Restrepo Amariles explore la manière dont les cabinets de conseil intègrent l'IA générative dans leurs processus de travail et les défis liés à un usage laissé à la discrétion des individus.
La recherche montre que, bien que des outils d'IA générative comme ChatGPT puissent améliorer considérablement la qualité du contenu et la productivité perçue, leur utilisation non régulée crée un décalage entre les managers et les consultants : l'effort fourni tend à être sous-évalué et l’adoption de l’IA se fait de manière dissimulée (« shadow adoption »).
Une qualité de
production supérieure - mais un effort sous-évalué
L'étude, menée auprès
de 130 managers intermédiaires dans un grand cabinet de conseil, a révélé que :
• Le contenu produit avec l’aide de ChatGPT
était mieux évalué par les managers que celui produit sans IA ;
• Cependant, lorsque les managers savaient que
ChatGPT avait été utilisé, ils avaient tendance à sous-évaluer l’effort fourni
par les consultants ;
• Les consultants ayant utilisé ChatGPT sans le
divulguer étaient plus susceptibles de recevoir des évaluations positives -
suggérant que dissimuler l’utilisation de l’IA (« shadow adoption ») pourrait
leur être bénéfique sur le plan professionnel.
L’usage caché - un défi
pour les managers
La recherche montre que
les managers ont du mal à détecter l'utilisation de l'IA générative, sauf si
elle est explicitement signalée :
• Lorsque l’utilisation de l’IA était déclarée,
44% des managers soupçonnaient tout de même que ChatGPT avait été utilisé, même
lorsque ce n’était pas le cas - soulignant un déficit de confiance ;
• Cela crée un déséquilibre en matière de
responsabilité et d’évaluation, les consultants bénéficiant d'une utilisation
cachée de l'IA tandis que les managers se trompent sur l’effort réellement
fourni.
Recommandations pour
des politiques IA plus solides
Les auteurs proposent
quatre éléments clés pour élaborer des politiques d'entreprise sur l'IA :
• Imposer une divulgation obligatoire : les
employés doivent informer leurs managers lorsqu'ils utilisent l'IA pour
garantir la qualité et l'authenticité du contenu généré par IA
• Etablir un cadre de partage des risques :
aligner les intérêts des managers et des employés en clarifiant la
responsabilité et en atténuant les risques excessifs ;
• Développer un mécanisme de suivi structuré :
suivre l’utilisation de l’IA, évaluer les risques et garantir la conformité aux
normes de qualité et aux exigences légales ;
• Mettre en place un système d'incitation :
reconnaître l’effort des employés lorsqu'ils travaillent avec l’IA, afin de
garantir l’équité et la motivation sans décourager l’adoption de l’IA.
« Notre recherche démontre que l’adoption de l’IA dans les cabinets de conseil dépend non seulement des capacités technologiques, mais aussi de l’expérience managériale et de cadres organisationnels structurés, déclare le professeur Restrepo d’HEC Paris. L’intégration réussie d’outils comme ChatGPT nécessite non seulement de la transparence, mais aussi une reconnaissance équitable de l’effort humain et des incitations bien équilibrées. »