Blog FinDev

Quand la finance rencontre l'IA : éléments de réflexion pour les autorités publiques

Agent local en Côte d'Ivoire manipulant de l'argent.

Imaginez un monde où un simple clic suffit pour approuver un prêt, où les demandes d'indemnisation sont réglées en quelques secondes et où les conseillers financiers ne sont plus des humains, mais des machines hautement intelligentes. Ce n'est plus de la science-fiction, c'est la réalité du paysage financier d'aujourd'hui. Alors que l'intelligence artificielle (IA) continue de révolutionner le secteur financier, elle présente à la fois des opportunités sans précédent et des défis uniques. Comment les autorités publiques peuvent-elles accompagner le secteur financier dans l’exploitation du potentiel de l’IA, tout en veillant à ce qu’elle soit utilisée de manière sûre et éthique

Pour faire suite à notre récent blog sur le paysage réglementaire mondial de l'IA, nous proposons trois axes de réflexion susceptibles daider les autorités de régulation à promouvoir lutilisation responsable de lIA dans la finance : une coordination renforcée entre les différents domaines politiques, un dialogue itératif avec une pluralité d’acteurs, et une réglementation adaptative plus poussée. Une telle approche globale pourrait permettre d’atténuer les risques liés à l’IA tout en libérant son potentiel pour l’inclusion financière.

Trouver l’équilibre entre opportunités et risques 

L'IA est utilisée dans l'ensemble du secteur financier pour analyser de grandes quantités de données sur les consommateurs et déterminer à quels produits ils peuvent prétendre. Ces outils sophistiqués sont utilisés pour l’intégration des clients, l'évaluation de crédit, la souscription d'assurance et le traitement des sinistres, les services d'assistance virtuels, le conseil automatisé, le trading, la gestion des portefeuilles et des risques, la détection des fraudes, la cybersécurité et la lutte contre le blanchiment d'argent et le financement du terrorisme (LAB/CFT). Pour les prestataires de services financiers, l'utilisation de l'IA permet de générer des gains d'efficacité et des économies d'échelle. Pour les consommateurs, elle peut contribuer à offrir des expériences sur mesure et des produits financiers personnalisés. Toutefois, l'IA peut également amplifier certains risques financiers et non financiers, compromettre l'intégrité du marché et nuire aux consommateurs. 

Les avantages et les risques de l'IA dépendent largement de ses cas d'utilisation. Nous avons identifié trois éléments à prendre en compte pour conduire une évaluation des avantages et des risques liés à l'utilisation de l'IA dans le secteur financier : les données d'entrée, le modèle lui-même et les résultats qu'il génère. Chacun de ces éléments est porteur à la fois de potentiel et de risques. Le schéma ci-dessous résume notre analyse, même si la liste n’est pas exhaustive.

Tableau risques et opportunités

Les biais algorithmiques sont souvent pointés du doigt dans l’évaluation des risques liés à l’IA. Ils peuvent provenir de plusieurs sources, notamment du fait que les données d’entrée utilisées pour entraîner le modèle sont parfois incomplètes, incorrectes ou non représentatives, et reflètent des biais historiques. Ces biais peuvent aussi être introduits lors de la phase de modélisation, par exemple si des caractéristiques protégées (origine ethnique, genre, religion…) sont directement incluses ou indirectement inférées à partir de variables de substitution (comme le code postal). Cela peut produire des biais dans les résultats, empêchant les personnes ou entreprises à faibles revenus ou exclues du système formel d’accéder à des produits financiers abordables. Il s’agit là d’un enjeu crucial: il est essentiel d’éviter que l’IA ne crée ou n’aggrave des inégalités déjà préjudiciables à l’inclusion financière.

Ce que peuvent faire les autorités publiques

Si l'utilisation de l'IA comporte des risques, il est important d’avoir à l’esprit qu’elle a souvent pour effet principal d’amplifier des risques existants, qui peuvent être déjà couverts par réglementation en vigueur. Néanmoins, des orientations spécifiques sur la manière d’appliquer cette réglementation à l’usage de l’IA seraient utiles. Nous avons identifié trois domaines clés à prendre en compte par les autorités publiques.   

1) Élargir l’approche à des champs politiques et des acteurs plus diversifiés

L’IA dans la finance dépasse le seul cadre des lois bancaires ou des marchés financiers – elle touche également à d'autres domaines tels que la confidentialité des données, la protection des données, la protection des consommateurs, le droit de la concurrence, la résilience opérationnelle, les plans de redressement, ou encore la cybersécurité. Pour garantir une réponse holistique, les autorités financières peuvent réfléchir aux mesures suivantes :

  • Harmoniser les définitions et les principes éthiques : une taxonomie mondiale de l’IA permettrait d’unifier les terminologies et les cadres d’analyse, réduisant ainsi le risque d’arbitrage réglementaire. Les autorités pourraient aussi publier des orientations sur l’application de principes éthiques (sécurité, équité, transparence, fiabilité) aux données d’entrée, aux algorithmes et aux résultats générés.
  • Favoriser la coordination intersectorielle et multipartite : les autorités pourraient encourager le partage de connaissances entre institutions financières, fournisseurs technologiques, régulateurs, gouvernements et société civile.
  • Encourager les dispositifs de partage de données : les données étant le carburant de l’IA, les autorités peuvent renforcer les infrastructures de données, promouvoir leur partage et établir des mécanismes de gouvernance du partage de données à travers des cadres d’open data favorables à l’innovation, tout en assurant une protection adéquate des données.
  • Veiller au respect de la législation sur la protection des données personnelles, notamment en donnant plus de contrôle aux utilisateurs sur leurs données, et en faisant respecter le droit à l’effacement lorsque celles-ci ne sont plus nécessaires.
  • Évaluer l'IA au regard du droit de la concurrence, en étudiant par exemple si certains algorithmes d'IA peuvent conduire à ententes tacites sur les prix qui violent les lois antitrust ou favorisent les comportements anticoncurrentiels.
  • Encourager l'application des règles existantes en matière de protection des consommateurs : l'IA peut alimenter des formes sophistiquées de fraude financière, de cybermenaces et de violations de la confidentialité des données, ce qui rend essentiel pour les autorités d’assurer un traitement cohérent au regard de la loi pour des produits, services et activités similaires. 

2) Évaluer la pertinence de la réglementation existante

Même si la réglementation financière est « neutre » sur le plan technologique, l'IA apporte de nouveaux défis et accentue les risques financiers et non financiers, en raison de sa complexité, de son potentiel d’autonomie décisionnelle et des enjeux de gouvernance. Pour évaluer l'adéquation et la clarté de la réglementation existante dans la perspective d’atténuer les risques liés à l'IA, les autorités peuvent envisager les mesures suivantes : 

  • Analyser les risques de stabilité financière et de contagion : les cadres de gestion des risques prennent-ils en compte – et atténuent-ils – les fluctuations de marché induites par l’IA, y compris les effets de mimétisme ou de contagion susceptibles d’amplifier les phases de hausse ou de baisse des marchés ?
  • Examiner les risques liés aux tiers et à l’externalisation : les autorités doivent évaluer les conséquences de l’externalisation d’infrastructures ou de processus critiques (y compris les outils d'IA) à des tiers. Elles doivent surveiller la concentration potentielle du risque de tiers (en particulier les risques associés au fait de s'appuyer sur un petit nombre de fournisseurs de services cloud dominants) et ses implications en termes de risque systémique ou de réputation en cas de fuite de données involontaire.
  • Prendre en compte les risques liés aux modèles de données : examiner si les cadres de gestion des risques existants tiennent compte des spécificités de l'IA, telles que les biais des algorithmes ou les hallucinations des modèles.
  • Renforcer la cybersécurité : clarifier la responsabilité des prestataires, des développeurs et des utilisateurs de l'IA dans la protection des données personnelles en cas de violation ou de détournement de données.
  • Favoriser la transparence et l’explicabilité, notamment en révisant les obligations d’information pour aider les consommateurs et investisseurs à comprendre les décisions générées par l’IA (par exemple les décisions d'évaluation de crédit ou d'investissement). 

Pour chacun de ces risques, il est essentiel que les autorités définissent des indicateurs de suivi clairs, les actualisent régulièrement pour s'adapter à l'évolution rapide du paysage de l'IA, et évaluent leur précision et leur pertinence pour comprendre les pertes et préjudices potentiels. 

3) Mener des consultations ciblées pour orienter la réglementation

Le débat sur l’IA repose souvent sur des hypothèses sans fondement empirique suffisant. En menant des consultations publiques pour recueillir les réactions du secteur, les régulateurs peuvent disposer d'informations exploitables et actualisées. Plusieurs autorités financières (de l'UE, du Japon, de la Nouvelle-Zélande, du Royaume-Uni et des États-Unis) ont organisé de telles consultations pour identifier les risques prioritaires liés à l'IA pour les acteurs du marché. En outre, les autorités peuvent envisager de mettre en place des panels consultatifs de consommateurs pour comprendre plus finement les enjeux de protection des usagers et les problèmes rencontrés lors de l’utilisation des outils pilotés par l'IA, et diffuser des enseignements sur les risques pour les consommateurs et la conduite des entreprises. 

Le secteur financier dans son ensemble doit engager une réflexion sur la manière dont l’IA peut réellement favoriser l’inclusion financière et produire des effets positifs pour tous.

 

La réglementation de l'IA n'est qu'une pièce du puzzle. Le secteur financier dans son ensemble doit engager une réflexion sur la manière dont l’IA peut réellement favoriser l’inclusion financière et produire des effets positifs pour tous. Alors que l'usage de l'IA ne cesse de croître, le CGAP travaille à mieux comprendre comment l’IA peut servir les objectifs d’inclusion financière et permettre à des clients traditionnellement exclus ou mal desservis d’en tirer pleinement parti, tout en limitant les risques.

Commenter

Les commentaires sur cette page sont modérés par les éditeurs du Portail FinDev. Nous validons les commentaires qui apportent des perspectives et des idées pertinentes pour cet article. Pour en savoir plus.

amel laabidi , cadre supérieur à la BH Bank, Tunisie
13 octobre 2025

merci pour le partage, autant instructif

Laisser un commentaire