Un analyste de données utilisant la technologie AI pour l’outil de travail pour l’analyse de données Chatbot Chat avec l’IA, en utilisant l’IA robot intelligent technologique, l’intelligence artificielle pour générer quelque chose.
Khanchit Khirisutchalual / iStock

En février 2024, l’Autorité des marchés financiers (AMF) a publié un Document de réflexion et de discussion concernant les meilleures pratiques pour l’utilisation de l’intelligence artificielle dans le secteur financier. Dans ce document, l’AMF souligne tout d’abord les risques que représente l’intelligence artificielle (IA) envers non seulement les consommateurs, mais aussi les intervenants financiers.

Du côté des consommateurs, il y a de nombreux risques, tels que des risques accrus de fraudes, des biais discriminatoires ou des conflits d’intérêts pouvant être introduits dans les systèmes d’IA. Les « pratiques d’engagements numériques » telles que la ludification, qui consiste à appliquer des mécanismes de jeux vidéo aux pratiques marketing, ou l’incitation vertueuse, comme les notifications, sont d’autant plus persuasives et efficaces lorsqu’elles sont utilisées conjointement avec l’IA. Ces pratiques peuvent mener les consommateurs à poser des gestes qui ne sont pas dans leur intérêt et qu’ils ne poseraient pas en temps normal.

Du côté des institutions financières, les risques réputationnels sont mis de l’avant par l’AMF ainsi que le risque d’erreurs par un système d’IA étant utilisé à des fins d’allocation de ressources ou d’investissements, ce qui pourrait poser des problèmes de solvabilité. De manière plus générale, l’IA peut aussi avoir un impact sur la stabilité financière des marchés financiers, pouvant causer des « flash crash » (krach éclair) menant à des chutes brusques et rapides des cours de Bourses.

Ainsi, l’AMF propose une trentaine de meilleures pratiques pour l’utilisation responsable de l’IA. Ces meilleures pratiques se concentrent principalement sur la protection des consommateurs et la transparence envers ceux-ci quant à l’utilisation des systèmes d’IA et, du côté des intervenants, sur la responsabilité à l’égard des IA qui sont utilisées ainsi que la gestion de risques et de gouvernance au sein des systèmes d’IA.

L’encadrement de l’IA devenant de plus en plus une priorité, l’AMF s’était déjà dotée, en 2023, d’une Direction de l’intelligence d’affaires et analytique consacrée à la promotion de la culture des données. En effet, l’AMF souligne, dans son rapport 2022-2024 sur la mise en application des lois, que la science des données de même que l’intelligence artificielle ont contribué de manière importante à ses outils de détection et d’enquête.

L’AMF continue à mettre en œuvre les recommandations qu’elle émet dans son rapport concernant les meilleures pratiques pour l’utilisation responsable de l’IA et développe présentement une ligne directrice afin de pouvoir clarifier les attentes envers les institutions financières. Bien que le présent rapport ne soit pas contraignant pour les institutions financières, il leur permet de se préparer et de prévoir les obligations futures demandées par l’Autorité.

Julie-Martine Loranger est avocate émérite, associée chez McCarthy Tétrault S.E.N.C.R.L.,

Avec la collaboration de Yassine Khadir, stagiaire en droit chez McCarthy Tétrault.

Le présent article ne constitue pas un avis juridique.