Expert en cybersécurité au sein de TVH Consulting, Fidens met en lumière les enjeux cruciaux liés à l’évolution des conditions d’utilisation des systèmes d’Intelligence Artificielle Générative (IAG).
La protection des données personnelles face aux
collectes non encadrées, la responsabilité limitée des fournisseurs de services
d’IA générative et les nouvelles règles d’utilisation de ces technologies sont
autant de défis majeurs pour les experts métiers, les data scientists, les
éditeurs de ces systèmes et leurs utilisateurs. Créer des modèles performants
ne suffit plus : ils doivent aussi être justes, sécurisés et alignés avec les
valeurs et les exigences des entreprises.
Avec un marché estimé à
1,3 trillion de dollars d'ici 2032 (selon Sopra Steria Next), l'essor de l'IAG
pose des questions fondamentales sur la réutilisation des données des
utilisateurs et la responsabilité des fournisseurs face aux contenus générés.
Face à ces enjeux, les grandes entreprises technologiques adaptent leurs
politiques, avec des implications majeures pour les utilisateurs et les
créateurs de contenu.
1 - Vers une redéfinition des conditions d'utilisation
Une tendance notable
est l’actualisation des conditions d’utilisation permettant la réutilisation
des données des utilisateurs pour l’entraînement des modèles d'IA. Tandis que
certaines entreprises assurent ne pas exploiter les contenus de leurs clients,
d'autres se réservent ce droit sans contrepartie. Cette pratique suscite des
débats en matière de propriété intellectuelle et de protection des données, et
a déjà donné lieu à des actions en justice intentées par des artistes et
auteurs aux États-Unis.
Luc Bouillaguet,
Consultant conformité et protection des données chez Fidens by TVH, explique :
«
Les exemples des enjeux liés à la réutilisation des contenus sont déjà
nombreux, comme ces conditions de services d’un célèbre éditeur de solution de
retouche d’images, qui a changé ses termes dès février 2024. Ces changements
pouvaient laisser entendre initialement (par des formulations larges) que la
société se réservait le droit d’accéder aux contenus des utilisateurs, uploadés
ou créés depuis les services de la société « à l’aide de techniques telles que
le machine learning afin d’améliorer nos Services et nos Logiciels ainsi que
l’expérience utilisateur. »
2 - Collecte massive de données et risques juridiques
Le recours au web
scraping pour collecter des données accessibles en ligne ne cesse d’inquiéter.
Sans consentement explicite des utilisateurs, cette pratique peut contrevenir
aux règles du RGPD et exposer les entreprises à des sanctions. La CNIL insiste
sur la nécessité de minimiser au maximum lors de ce type de collecte et de
privilégier des méthodes moins intrusives.
Un cas emblématique est
celui des systèmes de reconnaissance faciale de la société américaine Clearview
IA, accusée de collectes massives de données photographiques sans autorisation,
et condamnée par plusieurs autorités européennes de protection des données.
3 - Meilleures pratiques pour une protection optimale des données
Afin d'assurer une
protection efficace des données personnelles, il est essentiel d'intégrer ces
enjeux dans le cycle de développement informatique dès la conception, à savoir :
• Utiliser des jeux de données fictifs pour les
phases de test et développement, évitant ainsi d'exposer des informations
sensibles.
• Anticiper les mesures de sécurité en les
intégrant dès la phase de conception, plutôt que d'y réfléchir a posteriori.
• Garantir aux utilisateurs un contrôle accru
sur leurs données, en facilitant l'accès aux paramètres de confidentialité.
Julien Grès, Consultant
Protection des Données chez Fidens by TVH, rappelle :
« Pour protéger leurs
données, les utilisateurs doivent porter une attention particulière aux
paramétrages d'accessibilité et de confidentialité des services qu'ils
utilisent, ainsi qu'à l'évolution des conditions générales d'utilisation. Une
vigilance constante est essentielle face à un environnement en perpétuel
changement. »
4 - Une responsabilité minimale des fournisseurs d'IA
Les grands acteurs de
l'IA ajustent leurs conditions d'utilisation afin de limiter leur
responsabilité face aux contenus générés. Microsoft par exemple stipule que ses
utilisateurs doivent vérifier eux-mêmes la légalité des contenus exploités via
ses services. De son côté, OpenAI rappelle que les résultats fournis par
ChatGPT ne sont ni garantis comme exacts, ni représentatifs de ses propres
opinions.
5 - Vers une régulation
renforcée
Ce futur règlement
européen sur l'intelligence artificielle, dont l'application est prévue à
partir d'août 2026, imposera des obligations accrues en matière de
transparence. Les contenus générés ou modifiés par l'IA devront être clairement
identifiés afin de lutter contre la diffusion d’informations trompeuses.
Cependant, ces exigences concerneront principalement les fournisseurs, laissant
les utilisateurs finaux dans un cadre moins réglementé.
L'évolution des
conditions d'utilisation des services d'IA reflète les efforts des entreprises
pour concilier compétitivité et conformité légale. Toutefois, ces changements
posent de nouveaux défis en matière de protection des données et de propriété
intellectuelle. Les utilisateurs, les entreprises et les régulateurs devront
rester vigilants afin d'assurer un équilibre entre innovation et respect des
droits fondamentaux.
« Aussi performante soit-elle, l'intelligence artificielle ne remplace pas l'expertise humaine. Les spécialistes métiers jouent un rôle clé pour garantir que les résultats produits sont exacts, compréhensibles et exploitables », conclut Julien Grès.