Homme communiquant avec le robot. Homme communiquant avec l’intelligence artificielle Illustration vectorielle.
Mykyta Atamanchuk / iStock

Le Département des services financiers de l’État de New York (NYDFS) a émis une série de directives pour inciter les entreprises financières à surveiller les nouveaux risques liés à l’intelligence artificielle (IA), rapporte un article du Wall Street Journal.

Le document d’une dizaine de pages s’inscrit dans le cadre de la réglementation américaine existante sur la cybersécurité. Il vise à sensibiliser les institutions financières aux menaces spécifiques liées à l’IA, notamment les attaques par ingénierie sociale, les cyberattaques et le vol d’informations sensibles.

Le NYDFS, tout comme d’autres régulateurs aux États-Unis, se concentre de plus en plus sur l’impact de l’IA dans les services financiers et se penche en particulier sur les risques qu’elle pose en matière de cybersécurité.

Risques liés à l’IA et exigences réglementaires

Les directives émises le 16 octobre ne représentent pas de nouvelles obligations pour les entreprises du secteur. Cependant, Adrienne Harris, surintendante du NYDFS, a souligné que les firmes doivent inclure les risques liés à l’IA dans leurs stratégies de gestion des risques et se conformer aux exigences des règlements modifiés sur la cybersécurité.

« Il s’agit vraiment de s’assurer que l’expertise est présente au sein des institutions et qu’elles s’engagent avec un grand nombre de parties prenantes pour comprendre le développement de la technologie », a-t-elle déclaré dans une interview. Elle a ajouté que même si les entreprises ne disposent pas d’une équipe d’experts en IA, elles doivent participer activement aux discussions autour de son utilisation.

Le régulateur new-yorkais recommande de mettre en place des contrôles de sécurité superposés et redondants. Si une mesure de sécurité échoue, une autre pourra ainsi contrer les effets d’une cyberattaque. Parmi ces mesures, on retrouve l’évaluation des risques, des procédures basées sur ces risques, une diligence raisonnable envers les tiers, des formations en cybersécurité et une gestion efficace des données.

Un enjeu de conformité transfrontalier

Les discussions autour de la régulation de l’IA ne se limitent pas à New York. Par exemple, en Californie, le gouverneur démocrate Gavin Newsom a récemment mis son veto à une loi sur la sécurité de l’IA, car il estime que la législation ciblait uniquement les plus grands modèles d’IA et ne prenait pas en compte les différents contextes d’utilisation. Pendant ce temps, plusieurs entreprises technologiques s’attendent à ce que des règles pour encadrer l’IA émergent bientôt.

Ce débat met en lumière une question plus large sur la façon dont l’IA devrait être réglementée, signale WSJ, à savoir devrait-on cibler les créateurs de modèles d’IA ou les applications spécifiques de l’IA ? Par ailleurs, ces régulations devraient-elles être dirigées par les États ou par des agences fédérales ?

Bien que ces directives soient issues du régulateur de New York, elles résonnent au-delà des États-Unis. Les régulateurs dans le monde travaillent sur des lignes directrices pour aider les institutions financières à faire face aux risques liés à l’utilisation de l’IA. Les entreprises financières canadiennes s’y intéressent également en intégrant des recommandations similaires qui tiennent compte des spécificités réglementaires locales.