Le conseil d’administration de l’Organisation internationale des commissions de valeurs (OICV) a publié des orientations quant à l’utilisation de l’intelligence artificielle (IA) et de l’apprentissage automatique par les intermédiaires de marché et les gestionnaires d’actifs. Elle donne ainsi suite à son rapport de consultation publié en juin dernier.
L’utilisation de l’IA et de l’apprentissage automatique permet de faire des gains en matière d’efficacité des processus et de réduire le coût des services d’investissement en plus de libérer des ressources pour d’autres activités. Ces avantages ne doivent toutefois pas faire oublier que ces technologies peuvent aussi créer ou amplifier des risques, ce qui pourrait nuire à l’efficacité des marchés financiers et porter préjudice aux consommateurs et aux autres acteurs du marché.
Six mesures
En publiant ses recommandations, l’OICV, qui est reconnu comme l’organisme de normalisation mondial en matière de réglementation des valeurs mobilières, veut aider ses membres à réglementer et à superviser l’utilisation de l’IA et de l’apprentissage automatique.
Elle recommande six mesures visant à garantir que les intermédiaires de marché et les gestionnaires d’actifs disposent de cadres de gouvernance, de contrôle et de surveillance appropriés, de processus de développement et de test robustes permettant d’identifier les problèmes potentiels de même qu’une transparence et des informations appropriées à leurs investisseurs, régulateurs et autres parties prenantes concernées.
Les organismes de réglementation devraient donc avoir les exigences suivantes :
- que les entreprises désignent des cadres supérieurs responsables de la supervision du développement, des tests, du déploiement, de la surveillance et des contrôles de l’IA et de l’apprentissage automatique. Cela comprend un cadre de gouvernance interne documenté, avec des lignes de responsabilité claires.
- qu’elles testent et surveillent adéquatement les algorithmes pour valider les résultats d’une technique d’IA et de l’apprentissage automatique en continu. Les tests doivent être effectués dans un environnement séparé de l’environnement réel avant le déploiement pour garantir que l’IA et l’apprentissage automatique se comportent comme prévu dans des conditions de marché tendues et non tendues et fonctionnent de manière conforme aux obligations réglementaires.
- qu’elles aient les compétences, l’expertise et l’expérience adéquates pour développer, tester, déployer, surveiller et superviser les contrôles de l’IA et de l’apprentissage automatique que l’entreprise utilise. Les fonctions de conformité et de gestion des risques doivent être en mesure de comprendre et de remettre en question les algorithmes produits et d’exercer une diligence raisonnable sur tout fournisseur tiers, y compris sur le niveau de connaissances, d’expertise et d’expérience présent.
- qu’elles gèrent leurs relations avec les fournisseurs tiers d’IA et de l’apprentissage automatique, notamment en surveillant leurs performances. Elles doivent disposer d’un accord de niveau de service et d’un contrat clarifiant l’étendue des fonctions externalisées et la responsabilité du prestataire de services. Cet accord devrait contenir des indicateurs de performance clairs et devrait également déterminer clairement les droits et les recours en cas de mauvaise performance.
- Les organismes de réglementation devraient examiner le niveau de divulgation de l’utilisation de l’IA et de l’apprentissage automatique requis par les entreprises pour s’assurer d’exercer une surveillance appropriée.
- Enfin, ils devraient envisager d’exiger des entreprises qu’elles mettent en place des contrôles appropriés pour garantir que les données sont de qualité suffisante pour minimiser les biais et suffisamment larges pour une application bien fondée de l’IA et de l’apprentissage automatique.
Rappelons que l’OICV est composé de 34 organismes de réglementation des valeurs mobilières qui œuvrent dans quelque 130 juridictions.