ABBYY, multinationale spécialisée dans l'IA, publie les
conclusions de son étude intitulée "ABBYY State of Intelligent Automation : AI
Trust Barometer 2024".
·
La
peur de passer à côté d’opportunités est un facteur clé de l'adoption de l'IA
selon 50% des personnes interrogées.
·
En
France, les petits modèles de langage (SLM) sont perçus comme les plus dignes
de confiance (75%).
·
La
principale préoccupation concerne la fiabilité et l'exactitude des données (40%).
Cette étude révèle
qu’en France, 50% des professionnels de la santé craignent que leur
organisation prenne du retard si elle n’utilise pas l'IA.
La moitié des
professionnels de santé français citent l'augmentation de l'efficacité et
l'amélioration du service aux patients comme principal moteur d'investissement,
tandis que 50% déclarent ressentir une pression pour adopter cette technologie
en raison des attentes des clients. 83% ont investi après avoir constaté de
bons résultats avec l'IA, et 50% ont ressenti une pression du marché pour
rester compétitifs.
Le secteur de la santé
est l’un des plus sceptique quant aux bénéfices de l’IA, avec un taux de
seulement 67% de confiance, contre 75 % dans les services financiers et les
assurances, et 86% dans les technologies de l'information et les services
professionnels (par exemple, le conseil, le droit et la comptabilité). Les
principales raisons de ce scepticisme sont la fiabilité et l'exactitude des
données (40%), la précision dans l'interprétation et l'analyse (20%) et la
cybersécurité et les violations de données (80%).
Le domaine de la santé
est aussi celui où la crainte d’un mauvais usage de l’IA par les employés est
le plus élevé (63%). À titre de comparaison, il ne monte qu’à 23% dans le
secteur des services financiers.
Malgré ces craintes,
100% des dirigeants du secteur de la santé en France prévoient d'augmenter
leurs budgets en 2025, et 67% envisagent d'accroître leurs investissements de
11 à 30%, selon le rapport ABBYY State of Intelligent Automation Report AI
Trust Barometer.
L’étude révèle
également que le secteur de la santé considère comme plus fiables les modèles
de langage étendu (LLM) et les IA conçues pour des usages spécifiques comme le
traitement intelligent de documents (50%). Cela est peut-être lié au fait
qu’ils sont les modèles les plus utilisés par les organisations de santé (50%),
juste devant le machine learning et les outils prédictifs comme le process
mining et la RAG (33%).
« Il est
intéressant de constater la confiance du secteur de la santé dans les LLM,
malgré le scepticisme initial quant à leur tendance à générer des illusions ou
des résultats inexacts. Cela montre que le marché mûrit en intégrant des outils
et systèmes conçus pour des usages spécifiques, comme l’IDP et la RAG, dans
leur stratégie d’IA, afin de répondre à des besoins commerciaux précis et de
renforcer la confiance dans les solutions alimentées par les LLM », commente Maxime
Vermeir, Senior Director of AI Strategy chez ABBYY
Concernant l'utilisation éthique et la fiabilité, 100% des responsables informatiques du secteur de la santé sont confiants quant à la capacité de leurs employeurs à respecter les réglementations sur l'IA.
Cependant, seulement 67% des répondants disposent de
politiques en place auxquelles les équipes de sécurité et de conformité
adhèrent, et seulement 50 % prévoient d'en mettre en œuvre prochainement. 25%
ont déclaré qu'ils se sentiraient plus à l'aise en connaissant les
réglementations sur l'IA auxquelles ils doivent se conformer, et 63 % ont
affirmé qu'ils seraient rassurés si l'entreprise avait une politique de
responsabilité en matière d'IA.
Principaux domaines
d'utilisation de l'IA dans le secteur de la santé en France :
- Conformité
(67%)
- Service
client, comme l’onboarding (50%)
- Opérations
(33%)
- Recherche
et développement (17%)
- Finances et administration (17%)