Par Thierry Fabre, Senior Manager Sales Engineering, BlackBerry
Avec l’apparition de ChatGPT, de nombreuses entreprises à travers le monde prennent des mesures pour encadrer l’utilisation de tels outils. Comme toutes les nouvelles technologies, les modèles d’IA générative (tels que ChatGPT) peuvent être bénéfiques mais comportent également des risques importants. Après avoir étudié leurs différentes pratiques, certaines entreprises ont estimé que la balance risques/avantages était encore trop défavorable. De ce fait, certaines entreprises ont alors fait le choix d’interdire l’utilisation de ChatGPT et d’en bloquer l’accès sur leurs réseaux, jusqu’à ce qu’un encadrement et un contrôle appropriés soient mis en place.
Par ailleurs, une enquête de Fishbowl a révélé que 43% des salariés ont utilisé des outils d’intelligence artificielle (IA) comme ChatGPT pour accomplir certaines de leurs missions. Parmi eux, 68% n’en ont pas parlé à leur patron. Est-ce réellement une surprise ?
Une révolution qui bouleverse les habitudes de travail
ChatGPT est la plateforme qui connaît la plus grande croissance de l’histoire : son éditeur OpenAI a relevé plus de 100 millions d’utilisateurs lors des deux premiers mois de son lancement. À titre de comparaison, WhatsApp comptait autant d’utilisateurs au bout de trois ans et demi, et Facebook a mis plus de quatre ans pour atteindre ce nombre d’utilisateurs.
C’est également le premier chatbot de traitement du langage naturel piloté par l’IA, à être aussi facilement accessible. Au-delà de ses interactions et conversations proches de celles des humains, il peut générer différents types de contenu, comme des emails, des livres, des paroles de chansons ou encore du code. Par conséquent, il y a fort à parier que vos collègues l’utilisent déjà. Mais l’utilisation de ce type d’outils alimentés par l’IA est-elle sans risque pour les entreprises ? De nombreuses questions se posent notamment sur les conséquences qu’il peut y avoir en termes de sécurité, de confidentialité et de responsabilité.
Prendre en compte les risques
Étant donné que l’outil n’est disponible que depuis quelques mois, il est encore trop tôt pour connaître tous les risques que soulève les outils d’IA. Néanmoins, certains points problématiques (liés à l’utilisation de ChatGPT et d’outils similaires) ont déjà été identifiés, et doivent faire l’objet d’une attention particulière. Si des informations sensibles sont saisies dans ChatGPT, elles seront intégrées au modèle de données du chatbot et pourront être partagées avec d’autres personnes entraînant ensuite une fuite de données. Toute divulgation non-autorisée d’informations confidentielles dans ChatGPT (ou toute autre source en ligne) peut constituer une violation des politiques de sécurité de l’entreprise.
Par ailleurs, si la sécurité de ChatGPT est compromise, la question de la responsabilité des fuites de contenus se pose. Par exemple, une entreprise se doit de protéger les données qu’elle détient (que ce soit contractuellement ou légalement). Si elles sont divulguées et qu’elles peuvent être liées à l’entreprise en question, cela peut impacter sa réputation. Au-delà du risque de fuite de données, ChatGPT est un système qui absorbe des informations et les intègre dans ses bases de données pour les réutiliser ultérieurement. Même si la sécurité de la plateforme n’est pas compromise, le partage d’informations confidentielles sur des clients ou des partenaires peut constituer une atteinte aux accords conclus avec ces derniers. D’autant plus que l’entreprise est légalement obligée de protéger ces informations. Si l’on pousse plus loin le raisonnement et qu’on rentre en détail sur la notion de propriété, le fait de créer du code via ChatGPT peut générer des situations délicates. Les conditions d'utilisation indiquent que le code de ChatGPT est la propriété de la personne ou de l’entreprise qui a fourni les éléments pour le créer. Toutefois, lorsque cette production inclut des données légalement protégées collectées à partir des données d’autres sources, cela peut engendrer de grandes difficultés en matière de propriété et de responsabilité.
Toujours dans le cadre des enjeux autour de la propriété intellectuelle, se pose la question des droits d’auteurs. En effet, si ChatGPT peut générer des documents, il s’inspire de contenus existants qui peuvent être protégés par des droits d’auteur ou être sous licence. Par exemple, si un développeur décide de s’appuyer sur l’aide de ChatGPT pour créer du code pour son projet de développement, l’outil va puiser des informations dans sa base de données constituée en partie sur des bibliothèques open-source. Le développeur intègre alors le nouveau code que ChatGPT a généré dans la solution qu’il développe pour le compte de son entreprise. Dès lors, cela pourrait mettre cette dernière en infraction car cela pourrait constituer une violation des licences Open Source Software (OSS). Notons également un dernier détail intéressant mentionné dans les conditions d’utilisation : ChatGPT ne doit pas être utilisé pour le développement d’une autre IA. De ce fait, si un développeur ne respecte pas cette condition, cela pourrait compromettre le développement de cette nouvelle intelligence artificielle, surtout si l’entreprise est spécialisée dans le domaine des technologies.
Garder un œil sur la confidentialité des chatbots d’IA
Actuellement, ChatGPT met en garde ses utilisateurs sur la transmission ou la saisie d’informations sensibles ou personnelles, telles que les noms ou les adresses mails. Cependant, on ignore comment les créateurs de cet outil se conforment aux lois internationales sur la protection de la vie privée, ou si des contrôles appropriés sont mis en place pour protéger les données personnelles et respecter les droits des individus à l’égard de leurs données. C’est notamment sur ce point que les autorités italiennes ont justifié le bannissement temporaire de la plateforme, jusqu’à ce que des gages de conformité et contrôle leur soient apportés.
L’intégration des données personnelles au sein d’un système d’IA générative ouvre la porte à une utilisation abusive de ces données sensibles. De surcroît, cela pourrait nuire profondément à la réputation de l’entreprise qui accapare et utilise ces informations sans avoir obtenu le consentement des personnes concernées. À l’inverse, l’utilisation de données personnelles de façon incontrôlée peut briser la confiance des personnes qui ont fourni leurs informations, et être une preuve flagrante du non-respect des engagements de l’entreprise sur la protection de la vie privée (que ce soit celle de ses salariés, clients ou partenaires).
Les entreprises devraient donc évaluer si ChatGPT et les autres outils d’IA dans la même lignée, peuvent être utilisés en toute sécurité. L’adoption de ce type de technologies de pointe peut certainement favoriser les activités d’une entreprise, mais les nouvelles plateformes doivent toujours être évaluées en fonction des risques potentiels.