Dimanche 9 février, lors de l’événement international AI Safety Connect 2025, organisé à Paris en marge du Paris AI Action Summit, la Mohammed Bin Rashid School of Government (MBRSG), avec le soutien du Future of Life Institute (FLI), a officiellement lancé GRASP (Global Risk and AI Safety Preparedness).
Cette plateforme,
première en son genre à l’échelle mondiale, cartographie et catégorise les
outils et technologies de sécurité de l’IA conçus pour anticiper et atténuer
les risques liés à l’intelligence artificielle.
Cyrus Hodes, Fellow of
Practice à la MBRSG et co-responsable du projet SAFE au sein du GPAI, explique
: « L’intelligence artificielle génère des risques que les entreprises, les
chercheurs et les décideurs doivent identifier et maîtriser avant qu’ils ne
deviennent incontrôlables. GRASP propose une cartographie structurée des
menaces et des solutions, permettant aux acteurs clés d’adopter les outils les
plus adaptés. L’objectif est de rendre accessibles les solutions techniques,
organisationnelles et réglementaires pour atténuer les risques liés aux IA
généralistes et à l’intelligence artificielle générale. »
L’événement a rassemblé
plusieurs des plus grands experts mondiaux en sécurité de l’IA, dont Yoshua
Bengio, Stuart Russell, Max Tegmark, Xue Lan, Yi Zeng et Jaan Tallinn.
Ensemble, ils ont souligné l’urgence d’une approche coordonnée de la
gouvernance de l’IA, afin de garantir que les avancées technologiques se
développent dans un cadre sécurisé et maîtrisé.
GRASP : Une
cartographie inédite des risques et solutions en matière d’IA
Développée sous la
direction du Center for AI Security (CeSIA), en collaboration avec Apart
Research et l’Institut de Pékin pour la sécurité et la gouvernance de l’IA,
GRASP est la première cartographie mondiale exhaustive des solutions et
technologies dédiées à la sécurité de l’IA. Cette plateforme fournit une
approche structurée pour identifier les principaux risques liés à
l’intelligence artificielle et les stratégies existantes pour les mitiger.
GRASP s’inscrit dans le
cadre du projet SAFE (Safety and Assurance of Generative AI), mené par le
Global Partnership on AI (GPAI) et désormais intégré aux initiatives de
gouvernance de l’IA de l’OCDE. Il s’appuie sur les travaux du MIT AI Risk
Repository, analysant plus de 80 types de risques liés à l’IA et répertoriant
plus de 200 solutions pour y faire face.
Comprendre et anticiper
les risques liés à l’IA
Face à la montée des
défis liés à l’IA, GRASP offre un cadre structuré pour identifier et traiter
les risques associés aux systèmes d’intelligence artificielle avancés.
Trois grandes
catégories de risques ont été identifiées :
• Utilisation
malveillante de l’IA : cyberattaques automatisées, désinformation et deepfakes,
armes autonomes et bioterrorisme, surveillance et censure à grande échelle.
• Conception
défaillante ou mauvaise orientation : comportements imprévus ou trompeurs de
l’IA, systèmes auto-réplicants et perte de contrôle, risque d’une
super-intelligence poursuivant des objectifs non désirés.
• Impacts sociétaux
involontaires : biais algorithmiques et discriminations, impact sur l’emploi et
les inégalités économiques, influence sur la santé mentale et la démocratie,
affaiblissement des capacités cognitives humaines.
Un outil clé pour les
décideurs et la communauté IA
GRASP ambitionne de
devenir une référence pour les gouvernements, les entreprises et les
chercheurs, en offrant une vision complète des enjeux de sécurité liés à l’IA.
La plateforme permet aux utilisateurs d’explorer des solutions adaptées à des
risques spécifiques, ainsi que d’identifier les initiatives de recherche et les
cadres réglementaires en cours d’élaboration.
Principales
fonctionnalités de la plateforme GRASP :
• Une base de données interactive répertoriant
les risques et leurs solutions.
• Une approche modulaire associant chaque
risque à des stratégies d’atténuation concrètes.
• Des études de cas détaillées illustrant à la
fois les menaces et les contre-mesures.
• Un outil de navigation avancé permettant de
filtrer les informations par type de risque, application ou secteur.
Un projet porté par des
experts reconnus
Le projet GRASP est
dirigé par Cyrus Hodes, Fellow of Practice à la MBRSG à Dubaï et co-responsable
du projet SAFE au sein du GPAI. Son rôle est d’assurer la coordination entre
les parties prenantes et d’intégrer les travaux de GRASP et SAFE au sein des initiatives
de gouvernance de l’IA portées par l’OCDE et le GPAI.
Vers une gouvernance
mondiale plus responsable de l’IA
Avec le lancement de GRASP, la communauté internationale dispose désormais d’un outil structuré pour faire face aux défis de la sécurité de l’IA. En facilitant l’accès aux solutions existantes et en encourageant une approche proactive de la gestion des risques, GRASP entend devenir une référence incontournable pour les régulateurs, chercheurs et acteurs industriels.