Finastra, l'une des principales fintechs mondiales, demande à l'industrie financière internationale de s'attaquer au biais algorithmique qui risque d’impacter des millions de personnes chaque jour.
Fournisseur de technologies essentielles aux institutions financières de toutes tailles, dont 90 des 100 premières banques mondiales, Finastra a récemment chargé la société de conseil KPMG d'examiner la question des biais en Intelligence Artificielle dans les domaines de la banque, du crédit et de l'assurance afin d’identifier l’impact des décisions prises grâce à cette technologie sur les résultats de certaines personnes et de certains groupes.
En réponse à ces conclusions, Finastra a publié un plan en cinq points pour identifier et combattre les biais algorithmiques et exhorte le secteur financier à se réunir pour agir et construire une société plus juste.
Au cours de la dernière décennie, le secteur financier s'est industrialisé et numérisé grâce à l'introduction de l'intelligence artificielle (IA), en particulier les formes de machine learning, ce qui a permis d'accroître l'efficacité et d'automatiser les processus, si bien que de nombreuses étapes de la prise de décision en matière de banque, de prêt et d'assurance sont désormais confiées à des algorithmes. La pandémie a accéléré l'utilisation de ces technologies et, bien qu’il s’agisse d’une avancée clairement positive, ces algorithmes essentiels ne peuvent pas être plus "justes" et impartiaux que les ensembles de données utilisés pour les construire. Le secteur financier doit vérifier si les préjugés qui existent dans la société se répètent dans la conception et le déploiement de ces technologies.
Pour saisir l’ampleur du problème, Finastra a demandé à KPMG de produire un rapport révélant la taille des marchés du crédit à la consommation et l'impact potentiel des biais algorithmiques. Par exemple, en 2020, les prêts à la consommation et les transactions sur les principaux produits financiers (cartes de crédit, prêts d'autres produits de consommation et prêts hypothécaires/à domicile) s’élevaient à :
- 280 Mds€ en France
- 6 110 Mds$ aux US
- 1,270 MdsHK$ à Hong Kong
- 440 Mds£ au Royaume-Uni
- 110 MdsSG$ à Singapore
L'offre et les coûts d’un crédit pour les consommateurs - par exemple les taux d'intérêt pratiqués - seront dans de nombreux cas alimentés par les algorithmes utilisés.
Simon Paris, PDG de Finastra, déclare : « Si l'industrie financière n’y porte pas une attention prioritaire, l'IA pourrait avoir un impact négatif grandissant sur les vies humaines. Finastra n'a pas toutes les réponses, mais nous pensons que le secteur financier doit d'abord reconnaître qu'il y a un problème de biais algorithmique - et alors seulement nous pourrons travailler ensemble pour trouver une solution. Nous allons travailler avec nos partenaires et l'écosystème pour conduire le changement dont le secteur financier a besoin - de façon collective et collaborative, nous pouvons redéfinir la finance pour de bon et l'ouvrir à tous. L'objectif de Finastra est de faire en sorte que la technologie financière soit bienveillante et juste à tous égards afin de donner à chacun les conditions équitables lorsqu'il s'agit d'emprunter de l'argent ».
Dr Leanne Allen, directrice de KPMG Financial Services Tech Consulting, poursuit : « La confiance des consommateurs et du public est un facteur de réussite essentiel pour les services financiers. Les conclusions de notre rapport pour Finastra montrent clairement que les prestataires doivent faire preuve de prudence lors de la conception, de la construction et de la mise en oeuvre de ces algorithmes afin de garantir que l'innovation puisse continuer à progresser de manière sûre et éthique. Le rapport rassemble les réflexions récentes sur les biais algorithmiques, avec des applications spécifiques aux services financiers et au potentiel de prise de décision biaisée. L'atténuation des biais est d'une importance vitale dans notre monde numérique et centré sur les données. Ne pas s’en préoccuper pourrait faire courir un risque de graves préjudices financiers aux consommateurs qui utilisent ces services ».
Pour montrer son engagement à s'attaquer à ce problème, Finastra a publié un plan en cinq points dans le cadre de sa volonté d'aider à redéfinir la finance.
- Réformer l'accord de développement de Finastra : Finastra a mis à jour ses conditions de développement pour FusionFabric.cloud, sa plate-forme ouverte et son marché pour les développeurs. Cela signifie que les développeurs et les partenaires devront tenir compte des biais algorithmiques et que Finastra a le droit de vérifier ces biais dans toute nouvelle application.
- Créer de nouvelles technologies de démonstration de faisabilité : comme FinEqual, un outil numérique qui permet des prêts sans biais, pour donner aux utilisateurs la technologie leur permettant de s'attaquer aux biais algorithmiques dans leurs propres entreprises. Actuellement au stade de POC (proof of concept), Finastra vise à mettre FinEqual à la disposition des clients dans les 18 prochains mois.
- Hacking for Good : Finastra s'engage à ce que tous les futurs hackathons se concentrent sur l'inclusion. Pour ce faire, Finastra va lancer un concours mondial de hacking dans le cadre de sa série Hack to the Future afin de mettre en lumière les talents féminins dans l'industrie en trouvant et en promouvant des équipes équilibrées, dirigées par des femmes, qui repoussent les limites de l'IA et du machine learning.
- L'égalité au travail : Au sein de son organisation, Finastra avance vers un ratio hommes/femmes de 50/50 dans toutes ses équipes. Cela inclut l'augmentation du nombre de femmes parmi nos 200 premiers dirigeants et ingénieurs de 30 à 40 % d'ici 2025 et à 50 % d'ici 2030.
- Travailler avec les régulateurs : Finastra s'engage pleinement dans la lutte contre les biais en IA. Le groupe travaille en étroite collaboration avec les régulateurs sur de multiples marchés et, en tant que leader technologique, appelle le secteur des services financiers à prendre conscience de la menace que représente le biais algorithmique pour la société.