L’intégration rapide de l’intelligence artificielle (IA) dans le secteur financier soulève de nombreuses questions sur son encadrement. La transparence et la vigilance dans le traitement des données sont essentielles pour garantir une utilisation responsable de ces outils, comme l’ont souligné les panélistes de la conférence sur les défis éthiques de l’essor de l’IA en finance organisée par CFA Montréal.
Les systèmes d’IA jouent un rôle crucial dans la création de valeur, en aidant les institutions financières à prédire les défauts de paiement, à construire des portefeuilles, à assurer le service à la clientèle, à détecter les fraudes et à renforcer la cybersécurité.
Cependant, ils soulèvent également des défis éthiques importants en matière de sécurité des données et de risque lié à l’utilisation de données biaisées. Ces systèmes peuvent avoir un impact direct sur le bien-être financier des clients, par exemple en influençant la décision d’accorder des prêts ou de recommander une assurance vie.
Une course rapide
Dans la course aux technologies, les institutions financières se hâtent d’intégrer les systèmes d’IA alors même que leur transformation numérique n’est pas encore terminée, ce qui engendre un certain niveau de risque. « On n’a pas le choix de prendre le virage et de le contrôler dans la mesure du possible », indique Marie Andrée Alain, vice-présidente et chef de la conformité et de la protection des renseignements personnels au Mouvement Desjardins.
Dans ce contexte, le passage à l’IA nécessite une adaptation progressive des institutions financières. Elles avancent avec prudence, de façon équilibrée et réfléchie. Desjardins, par exemple, a adopté une approche pas à pas, en expérimentant et en tirant des leçons de chaque étape.
« On doit être dans la transparence, c’est inévitable, estime la gestionnaire. On doit être capables d’expliquer le fonctionnement du modèle d’IA qu’on utilise. Ça passe par une compréhension assez fine de nos propres ressources pour qu’on puisse fournir des explications à nos membres », dit-elle. Pour ce faire, la coopérative financière a mis sur pied un comité multidisciplinaire qui englobe les secteurs des TI, de la conformité, de la sécurité de l’information, de la gouvernance de données ainsi que les secteurs d’affaires.
Garder le cap n’est pas évident. Les considérations éthiques donnent parfois lieu à des « discussions difficiles » avec certains fournisseurs de solutions en IA, qui ne comprennent pas toujours la nécessité d’une approche transparente envers les clients. Desjardins doit également former ses propres experts en conformité aux enjeux éthiques de l’IA et s’assurer de bien comprendre les solutions de ses partenaires.
Mécanismes de contrôle
Les institutions financières qui veulent intégrer l’IA dans leurs processus sans mettre l’éthique en péril doivent implanter de solides mécanismes de contrôle à l’interne, signale Nada Kharrague, spécialiste en données et intelligence artificielle à IBM.
Un des risques de l’IA réside dans l’opacité des modèles, qui fonctionnent souvent comme des boîtes noires, rendant difficile la vérification de l’origine et de l’actualisation des données. Or, les institutions financières ne peuvent se permettre de fournir des informations exactes à 80 % du temps seulement, explique la spécialiste. La technologie doit être transparente, entre autres pour être en mesure de savoir qui est responsable si une mauvaise recommandation financière est communiquée à un client.
On doit pouvoir ajuster les modèles, améliorer la cohérence de leurs résultats et détecter tout biais introduit par une sélection inadéquate des données. « Lorsqu’on a une réflexion sur le choix technologique, il faut savoir si c’est une technologie qui est prête à être utilisée par une entreprise financière », dit Nada Kharrague.
Stratégie éthique
L’entreprise qui utilise l’IA devrait se doter d’une stratégie éthique pour prévenir les problèmes futurs, estime Anne Boily, consultante en IA responsable et stratégie. Pour réussir, il faut rendre la notion d’éthique concrète pour les décideurs et les sensibiliser aux effets potentiels.
« L’erreur serait de penser qu’on va arriver avec un cadre qui va tout couvrir, dit la spécialiste. Il faut naviguer entre deux extrêmes : développer sans considérations éthiques ou souffrir d’une paralysie qui empêche d’avancer. » En cas de dilemme, l’organisation doit alors aligner ses objectifs d’entreprise sur des objectifs éthiques, les ordonner et les prioriser.
Elle précise que l’encadrement réglementaire des systèmes d’IA doit être clair et assez large pour englober des objectifs plus vastes. « Il faut accepter de prendre des risques calculés et qu’il faudra casser des œufs pour faire l’omelette », dit-elle.