Lampe virtuelle de dessin tenant la main avec le cerveau sur fond bokeh pour une idée créative et intelligente concept
Dilok Klaisataporn / iStock

Les conseillers en services financiers devraient augmenter leur littératie numérique et bien comprendre les limites et les biais que l’utilisation de l’intelligence artificielle (IA) peut induire dans leurs activités.

Voilà quelques messages clés qui découlent du Symposium sur l’impact de l’intelligence artificielle sur les professions de la planification financière et fiscale, qui se déroulait à Drummondville et virtuellement en mai dernier. L’événement visait à permettre à l’industrie de mieux comprendre les effets de l’IA sur le travail des conseillers spécialisés en planification financière et fiscale. En voici quelques enseignements.

«Intéressez-vous à l’IA»

L’un des principaux avantages de l’IA est qu’elle abaisse le coût marginal d’effectuer une prédiction, a exposé Vincent Bérubé, Associé senior, McKinsey & Compagnie, Montréal. La technologie peut anticiper les prochaines actions d’un client en analysant l’historique de clients semblables ou peut prédire les ajustements à faire à un portefeuille en fonction de données pertinentes.

La démocratisation de l’IA est ainsi synonyme d’occasions d’affaires, mais aussi de risque concurrentiel. « Le plus grand service hôtelier au monde n’a pas d’hôtel. Le plus grand service de taxi n’a pas de voiture. Qu’est-ce que ça prendrait pour que le plus gros gestionnaire d’actif dans le monde ou le plus gros courtier n’ait pas de conseiller ? » a-t-il souligné.

Selon Vincent Bérubé, l’enjeu avec l’IA est qu’elle mène à la concentration du pouvoir et risque de donner un avantage aux premiers venus dans ce marché. Il donne l’exemple de la médecine, où le fait de poser un diagnostic sera probablement délégué à des machines, mais le fait de juger ces diagnostics reviendra au professionnel.

« Quand le diagnostic va être posé par les machines, soudainement on va se mettre à centraliser cette influence. Parce que de bonnes IA amènent plus de clients, plus de données et de meilleures décisions, ça devient à peu près impossible de rattraper cela. Le coût marginal de la prédiction étant de zéro et compétitionner devient difficile quand tu n’as pas l’échelle des quelques premiers joueurs. »

La distribution des actifs entre les acteurs de l’industrie qui adoptent l’IA dans leurs activités et ceux qui ne le font pas pourrait changer de manière importante, d’où l’importance de penser les tâches qui pourrait être redistribuées à l’IA et celles qui devraient être confiées à des conseillers en chair et en os.

« Augmentez votre niveau de littératie numérique est fondamental. Comprenez dans quel monde vous vivez », a souligné Vincent Bérubé. Et percevez l’IA comme une occasion d’accroître votre productivité.

Selon lui, le jour où un conseiller se présentera devant un client avec un assistant virtuel qui analysera sa conversation en temps réel et lui dictera ses prochaines actions en fonction du profil du client et sa sensibilité aux frais n’est pas si lointain.

Certaines entreprises de technologie financière offrent déjà à l’international des solutions aux courtiers afin d’être plus productifs, a noté Pascale Nguyen, Associée opérationnelle, chez Sia Partenaires, stratégie-conseil. Par exemple, certaines applications permettent la ludification de l’évaluation de la tolérance du risque des clients. D’autres mettent à la disposition un agent conversationnel capable de vulgariser le relevé de compte trimestriel des clients.

Selon Vincent Bérubé, l’IA risque d’accroître la pression sur les marges bénéficiaires des courtiers et des conseillers, les plus productifs pouvant abaisser leurs frais d’administration tout en servant plus de clients, car ils seront plus productifs. « Je ne sais pas si les nouveaux actifs vont se diriger vers les nouveaux joueurs ou vers les joueurs déjà établis », a-t-il noté.

L’IA n’est pas toujours la solution

Malgré le fait que l’IA soit prometteuse, la technologie ne peut pas régler tous les problèmes, selon Samuel Lévesque, scientifique de données principal chez Intact : «Votre expertise peut amener un certain frein aux initiatives où l’humain ne sera pas remplacé. Quand on parle de la relation avec le client, l’IA peut aider par exemple au cold starting, mais ça prend une partie d’accompagnement et de jugement (pour la suite des choses). »

Les compétences interpersonnelles des conseillers afin de comprendre la complexité d’une situation d’un client et être empathique envers lui sont parfois la clé afin d’acquérir et de fidéliser un consommateur.

« L’IA est un bel outil, un beau marteau, mais il ne faut pas voir des clous partout. Pour couper une planche, le marteau ne sera pas super utile », a-t-il ajouté.

Selon Samuel Lévesque, de nombreuses personnes citent la proportion suivante : 85 % des projets d’IA n’ont pas l’effet attendu. « C’est un chiffre énorme », a-t-il lancé.

Il attribue trois causes à ce faible taux de réussite. La première est le manque de données adéquates. Selon lui, souvent, on veut entamer un projet d’IA et on constate que la donnée n’est pas bonne, n’est pas nettoyée ou est absente. À ce moment, la bonne réponse est souvent de « changer la façon de collecter les données et revenir avec de meilleures données dans un an ou deux ans ».

La deuxième est une analyse coût-bénéfice inadéquate. D’après Samuel Lévesque, l’IA peut faire des choses fantastiques, mais crée des attentes irréalistes. « Il faut casser le party dans certains projets d’IA », a-t-il dit.

Par exemple, certains ont tendance à sous-estimer les coûts de maintenance d’un projet d’IA. Selon lui, certains croient à tort qu’une fois qu’un projet d’IA est construit et qu’il fonctionne bien, c’est la fin. Or, c’est plutôt le début d’un long processus. « Ça prend de l’expertise pour monitorer, pour savoir si le modèle continue de bien fonctionner. Est-ce qu’il y a des changements de marché qui fait que mon modèle est inadéquat ? Un modèle d’IA est un peu comme une plante d’intérieur, il faut l’arroser, la transplanter et, des fois elle, meurt même si on lui donne bien de l’amour », a-t-il illustré.

Troisièmement, certains projets d’IA échouent par déséquilibre dans la multidisciplinarité des équipes de conception, selon Samuel Lévesque : « Des fois on a des équipes super techniques, qui connaissent mal le milieu d’affaires. Ils livrent un outil dont personne ne veut. Ou on a une super bonne idée qui règlerait un problème, mais on manque d’expertise technique, ce qui fait qu’on manque la cible et que l’outil ne gagne pas du terrain. »

Malgré ce taux d’échec des projets d’IA, les organisations de l’industrie financière devraient embrasser l’IA afin de demeurer concurrentielles, selon Pascale Nguyen. « Si vous voulez que votre pratique demeure pérenne, si votre objectif est de garder cette loyauté des clients et employés et conserver l’actif sous gestion que vous avez déjà et qui va être transféré à la prochaine génération, il va falloir développer les bonnes approches et les bonnes solutions. La question n’est pas si on embarque dans le train ou non, c’est quand et comment », a-t-elle dit.

L’IA peut induire certains biais

Comprendre les capacités et les limites de l’IA pour une organisation lui permettra d’éviter de se faire dépasser par un concurrent, selon Kevin Moore, président-directeur général et fondateur
de Vooban. Par contre, l’expérience des gens dans l’industrie financière afin de déceler les problèmes, erreurs et biais d’un modèle d’IA est importante.

« Vos données vont refléter vos choix passés. Vous allez entraîner un modèle qui va réagir comme vous l’avait fait dans le passé et va laisser de côté certaines tendances et certaines gens (ou clients potentiels) », a noté Kevin Moore.

Ce risque de discrimination de certains groupes minoritaires ou racisés par les modèles ou d’aveuglement par rapport à de nouvelles occasions crée des risques organisationnels, sociétaux et d’industrie, selon lui.

« L’IA apprend des gens. Les gens sont imparfaits donc l’IA est imparfaite », a-t-il résumé. Il a noté que l’IA effectuera des corrélations entre les données disponibles, qu’une organisation en soit consciente ou non.

« Les enjeux liés à l’éthique ne sont pas quelque chose qui est assez regardé (dans les organisations). Mais le risque n’est pas égal partout. Si tu t’occupes d’une chaine d’approvisionnement et que tu introduis des biais, ça n’a pas le même impact que si tu introduis une discrimination » dans la souscription d’une police d’assurance ou de l’octroi de prêts hypothécaires, selon Vincent Bérubé.

Le risque peut provenir justement de l’absence de regard critique envers les biais historiques d’une entreprise, découlant de l’inexpérience des concepteurs de l’outil d’IA.

« Ça va être important que les régulateurs se positionnent rapidement », a dit Pascale Nguyen. Par contre, l’IA peut également favoriser l’élimination de biais humain dans l’octroi d’un prêt si elle est bien conçue, d’après elle.