Blog FinDev

L’IA au service de la finance responsable : une arme à double tranchant

Un chauffeur de VTC à Islamabad, Pakistan.

L'intelligence artificielle (IA) transforme à toute vitesse nos vies, nos interactions et nos finances. Elle présente un énorme potentiel pour accélérer l'inclusion financière, en particulier dans les économies émergentes et en développement (EMDE). L'IA permet aux institutions financières de fonctionner plus efficacement et à moindre coût, et ainsi d’améliorer leurs performances et de libérer leur potentiel en dépassent les limites humaines, notamment en termes de rapidité et de précision. Par exemple, le crédit numérique basé sur l'IA est désormais offert à des millions de consommateurs auparavant privés d’accès au crédit formel, grâce à leur empreinte numérique. L'IA peut également optimiser l’acquisition des clients, personnaliser les produits financiers et aider à la gestion financière quotidienne. 

Nous avons commencé à étudier la manière dont l'IA accentue les risques pour les consommateurs et comment elle peut aider les différents acteurs de l'écosystème, en particulier les autorités et les prestataires, à gérer ces mêmes risques. 

 

Mais l'application de l'IA dans le domaine financier accélère et accentue également toute une série de risques pour le secteur financier, notamment pour les consommateurs qui utilisent de plus en plus les services financiers numériques. Si ces risques ne sont pas correctement pris en compte, ils pourraient compromettre les progrès que nous aspirons à atteindre grâce à l'IA, et saboter les efforts visant à mettre en place des écosystèmes financiers numériques responsables. Dans le cadre du programme du CGAP visant à rendre la finance numérique plus responsable, nous avons commencé à étudier la manière dont l'IA aggrave les risques pour les consommateurs et comment elle peut aider les différents acteurs de l'écosystème, en particulier les autorités et les prestataires, à gérer ces mêmes risques.

En utilisant la typologie des risques pour les consommateurs des services financiers numériques établie par le CGAP en 2022, nous avons constaté que l'IA peut exacerber quatre grands types de risques.

1) La fraude

L'IA rend les fraudeurs plus "intelligents" en personnalisant les services. Les outils d'IA générative tels que les grands modèles de langage sont utilisés pour réaliser des escroqueries sophistiquées par hameçonnage et usurpation d'identité. La facilité avec laquelle on peut créer des deepfakes, pirater des mots de passe et manipuler des textes représente une sérieuse menace. Les outils d'IA sans code réduisent les obstacles pour les cybercriminels, et facilitent la création de logiciels malveillants et les attaques automatisées. Lors d'une récente conférence FinCoNet en novembre dernier, plusieurs cas d'usurpation d'identité de responsables de banques centrales à l'aide de deepfakes ont été évoqués, notamment celui du gouverneur de la Banque centrale de Roumanie.

2) L’utilisation abusive des données des consommateurs

Le déploiement rapide des grands modèles de langage (LLM en anglais) introduit des risques encore mal compris, notamment l’inclusion de données sensibles dans les instructions système. Le risque d'utilisation abusive des données est exacerbé par le manque de transparence de nombreux systèmes d'IA. Si l'IA peut ouvrir l'accès aux services financiers aux personnes non bancarisées, les algorithmes entraînés à partir de données biaisées, ou qui ne représentent pas les personnes traditionnellement exclues, peuvent amplifier les préjugés sociaux. Au Royaume-Uni, le directeur de l'Autorité des services financiers a averti que l'utilisation de l'IA dans le secteur des assurances pourrait rendre certains consommateurs vulnérables inassurables. Cela soulève des questions cruciales pour la finance inclusive.

3) Le manque de transparence

L’opacité de nombreux modèles d’IA rend difficile l’identification et la correction des biais potentiels qu’ils contiennent, ce qui peut porter préjudice aux consommateurs vulnérables. Par exemple, certains prestataires de services financiers peu scrupuleux peuvent exploiter la vulnérabilité des consommateurs en facturant un prix injustifié, après avoir détecté dans leurs transactions et leurs comportements un besoin urgent d’emprunter, même à un coût très élevé.

La complexité des algorithmes d’IA peut accentuer le manque de transparence dans le secteur financier, dans la mesure où il devient plus difficile d’identifier et de contester des résultats injustes ou discriminatoires. Comme l’a souligné l’OCDE, l’IA a le potentiel d’amplifier la désinformation et la mésinformation des consommateurs à grande échelle. Ce risque peut entraîner une perte de confiance des consommateurs dans le secteur financier et compromettre les avancées en matière d’inclusion financière.

4) L’inadéquation des mécanismes de recours

L’évolution vers un service client piloté par IA, si elle peut en améliorer l’efficacité, peut également entraver l’accès aux mécanismes de recours. Des chatbots mal conçus peuvent ne pas être en mesure de traiter correctement des réclamations complexes, laissant les consommateurs frustrés et sans solution efficace. Ils peuvent également fournir des réponses erronées ou incomplètes. Comme l’a déclaré le CFPB (Bureau de la protection financière des consommateurs), "même lorsque les chatbots parviennent à identifier qu’un client est en train de formuler une contestation, il peut exister des limites techniques à leur capacité de traitement et de résolution du litige". Un problème qui peut être aggravé par les normes sociales entourant les réclamations, en particulier chez les consommateurs vulnérables.

La combinaison de ces différents risques pourrait favoriser le surendettement. L'IA peut avoir pour effet d’augmenter les risques de surendettement, donc de nuire à la santé financière des clients. Par exemple, la GSMA et le CGAP ont tous deux constaté un stress d'endettement lié au crédit numérique en Afrique de l'Ouest.

Heureusement, l'IA apporte également de nouvelles solutions pour construire des écosystèmes financiers numériques plus responsables. Si elles sont utilisées de manière cohérente par les consommateurs, les prestataires de services financiers et les autorités, les solutions décrites ci-dessous pourraient permettre de réduire les risques liés à la finance numérique et d’améliorer les résultats pour les consommateurs. 

L'IA peut aider les consommateurs à améliorer leur culture numérique et financière 

Cela inclut une sensibilisation à la prévention de la fraude, à la protection des données personnelles, ainsi qu’à l'identification et au signalement des pratiques discriminatoires. Cet atout pourrait changer la donne pour les consommateurs vulnérables, tels que les personnes en situation de handicap, qui représentent environ 16 % de la population mondiale. Comme le souligne un rapport des Nations unies, "l'IA permet de communiquer grâce à des logiciels de reconnaissance vocale et de suivi des mouvements oculaires, qui rendent l'information et l'éducation accessibles aux personnes handicapées". L'IA présente également un grand potentiel pour aider les consommateurs à prendre des décisions plus avisées et à modifier leur gestion financière quotidienne, améliorant ainsi leur santé financière. 

L'IA offre de nouvelles solutions aux prestataires de services financiers pour prévenir la fraude

Notre recherche documentaire, réalisée à partir des premières informations fournies par Caribou Digital, a révélé que de nombreuses entreprises de technologie financière proposaient des solutions basées sur l'IA aux prestataires de services financiers afin de mieux se protéger et de protéger leurs clients contre la fraude financière. Ces solutions comprennent l'analyse en temps réel du comportement des utilisateurs, la détection des documents frauduleux, l'identification des escroqueries par échange de carte SIM, les mesures anti-hameçonnage et les alertes proactives auprès des utilisateurs. Une étude à l'échelle internationale a révélé que la détection des fraudes était l'utilisation la plus courante de l'IA dans le secteur financier. En outre, l'IA peut jouer un rôle important en aidant les prestataires de services financiers et les consommateurs à éviter les fraudes dites par "ingénierie sociale". Par exemple, les outils d'IA de détection de "vivacité" (détection de présence réelle) peuvent contribuer à éviter l'usurpation d'identité et l’utilisation de faux documents d'identité synthétiques. Les incitations basées sur l'IA pourraient également aider les prestataires à mieux former leurs employés et leurs agents afin de protéger les consommateurs contre la fraude et d'autres risques.

L'IA peut permettre aux prestataires de services financiers d'utiliser les données des consommateurs de manière responsable 

L’intelligence artificielle aide à personnaliser les services financiers, grâce à une meilleure gestion de la relation client. Elle peut également les prestataires de services financiers à évaluer les besoins des consommateurs et à proposer des solutions qui correspondent à leurs aspirations et à leurs capacités. Par exemple, l'IA pourrait aider les prestataires à identifier les consommateurs qui présentent un risque de surendettement. Les chatbots d’IA, associés à l'intervention humaine, pourraient garantir un parcours client fluide pour les consommateurs de services financiers. Les prestataires peuvent également utiliser l'IA pour mieux évaluer les profils de risque des consommateurs et leur garantir les résultats attendus. Certains prestataires de crédit numérique utilisent les données des téléphones mobiles pour aider à identifier et segmenter les profils de risque de leurs clients. Ce modèle peut bien fonctionner si le secteur est correctement réglementé et supervisé.

La SupTech alimentée par l'IA peut apporter un soutien considérable aux autorités du secteur financier

En effet, plusieurs organismes de normalisation, tels que la BRI, l'IAIS et l'IOSCO, documentent déjà le potentiel offert par l'IA pour identifier et atténuer les risques, en particulier dans le domaine de la lutte contre le blanchiment d'argent et le financement du terrorisme (LAB-FT) et de la détection des fraudes. Nos recherches menées en Inde en collaboration avec le Reserve Bank of India Innovation Hub et Decodis ont montré que l’utilisation des grands modèles de langage (LLM en anglais) pouvait aider les autorités à mieux comprendre la nature des risques auxquels sont confrontés les emprunteurs de crédit numérique – parmi lesquels figurent les pratiques irrégulières de recouvrement de créances et l'utilisation abusive des données des consommateurs. Il existe également un cas bien documenté de chatbot alimenté par l'IA utilisé par la BSP aux Philippines, qui interagit en temps réel avec les consommateurs.

L'IA offre un immense potentiel pour promouvoir l'inclusion financière dans les EMDE, mais il reste à savoir si elle peut rendre les écosystèmes financiers numériques plus responsables. 

L'IA offre un immense potentiel pour promouvoir l'inclusion financière dans les marchés émergents et les économies en développement, mais il reste à savoir si elle peut rendre les écosystèmes financiers numériques plus responsables. Au cours des prochains mois, nous approfondirons notre compréhension des solutions basées sur l'IA disponibles pour les acteurs clés de l'écosystème, en particulier les autorités et les prestataires, afin de freiner les risques croissants que faire courir l'IA aux consommateurs utilisant la finance numérique. L'identification et la mise en œuvre de ces solutions nécessiteront une approche écosystémique soutenue par une collaboration accrue entre les fintechs, les prestataires de services financiers numériques, les autorités et les représentants des consommateurs, car aucun acteur ne dispose à lui seul des moyens d'atténuer pleinement les risques liés à l'IA.

 

Écrire un commentaire

Les commentaires sur cette page sont modérés par les éditeurs du Portail FinDev. Nous validons les commentaires qui apportent des perspectives et des idées pertinentes pour cet article. Pour en savoir plus.