Le prêteur torontois a analysé une « myriade de banques de données » pour ses employés canadiens – des interactions sur les médias sociaux internes aux données de performances antérieures – afin de dégager des variables en corrélation avec le succès, a indiqué Permpreet Sidhu, vice-présidente au rendement et à l’inclusion de la Banque Scotia.
La banque a ainsi obtenu un ensemble d’indicateurs clés et un « indice de dirigeants émergents » que la banque utilise depuis novembre pour identifier les employés qu’il convient d’encourager à gravir les échelons de l’entreprise, tout en aidant à éliminer les biais inconscients qui peuvent parfois jouer un rôle dans les décisions de promotion.
« Ce que nous essayons de faire, c’est d’interrompre une partie du parti pris, même lorsque nous identifions les personnes que nous voulons développer 12 mois avant que les emplois ne deviennent disponibles. (…) L’indice mettra en évidence un plus grand nombre de candidats pour les dirigeants », a expliqué Mme Sidhu.
Le cas de la Scotia est un nouvel exemple de l’utilisation de la technologie pour lutter contre les préjugés inconscients dans les milieux de travail et accroître la diversité dans leurs rangs.
Parmi les autres stratégies dans le secteur des entreprises se trouvent notamment un outil capable de détecter les tournures biaisées dans les discussions en ligne en milieu de travail, un logiciel utilisé pour supprimer les identifiants de genre sur les pages LinkedIn dans les opérations de recrutement, et le recours à l’intelligence artificielle pour avoir un processus de promotion plus neutre.
« Nous sommes à la frontière en ce moment, où les gens mènent toutes ces expériences, a observé Sarah Kaplan, directrice de l’Institut sur le genre et l’économie de l’Université de Toronto. Et nous ne savons pas encore ce qui est efficace, mais tout le monde tente sa chance et espère que l’intelligence artificielle ou d’autres algorithmes automatisés pourraient aider. »
Modules d’extension pour détecter les biais
Catalyst Group, une organisation dédiée à la promotion de l’égalité des droits des femmes sur le lieu de travail, a lancé en mars un module d’extension pour la plateforme de messagerie Slack appelé BiasCorrect.
Celui-ci est programmé pour détecter 25 mots et expressions témoignant d’un préjugé sexuel. Une fois installé, BiasCorrect devrait automatiquement signaler les locutions potentiellement problématiques à l’utilisateur de Slack et proposer une solution de rechange.
Serena Fong, vice-présidente des engagements stratégiques de Catalyst, a indiqué avoir rendu public le code sous-jacent afin de permettre aux utilisateurs d’ajouter davantage de phrases ou de l’adapter à d’autres plateformes de messagerie.
Catalyst espère que ce module d’extension aidera les gens à prendre davantage conscience de leurs préjugés inconscients et de l’impact de leurs paroles et contribuera à créer un lieu de travail plus inclusif.
« Il n’y a pas de solution miracle au problème des préjugés inconscients », a-t-elle souligné.
Cependant, certains s’inquiètent que la technologie soit aussi biaisée que la personne qui l’a programmée, ou que les informations sous-jacentes qu’elle utilise.
« L’intelligence artificielle n’est pas une panacée. (…) Nous devons simplement y penser. Ce n’est pas comme si nous pouvions retirer toute influence humaine simplement en utilisant ces robots, a observé Mme Kaplan. Les robots pourraient en fait amplifier les préjugés. »
Deux professeurs du Massachusetts Institute of Technology (MIT) et de la London Business School ont mené une expérience concrète qui a démontré qu’une annonce non sexiste pour une offre d’emploi en ligne dans les secteurs des sciences, de la technologie, de l’ingénierie et des mathématiques était montrée plus souvent aux hommes qu’aux femmes.
Catherine Tucker, du MIT, et Anja Lambrecht, de Londres, ont diffusé une annonce sur Facebook, Instagram, Twitter et d’autres sites par l’entremise du réseau d’affichage des annonces de Google. Sur chaque site, un algorithme a optimisé l’annonce pour obtenir le plus grand nombre de vues, ce qui a entraîné plus de vues chez les hommes que chez les femmes, selon un article publié par Scientific American.
Les femmes prennent généralement plus de décisions de consommation que les hommes dans les ménages et, conséquemment, les algorithmes de marketing accordent une plus grande importance aux vues féminines d’une annonce, ce qui les rend plus dispendieuses. Afficher la publicité aux hommes est donc plus rentable, a expliqué Mme Tucker à Scientific American.
Données intrinsèquement biaisées
Mme Kaplan a expliqué que le fait de retirer les noms et autres identifiants qui trahiraient le genre d’une personne peut avoir des conséquences inattendues.
Les données sous-jacentes – telles que les écoles sur le curriculum vitae d’un candidat – peuvent être influencées par le genre, a-t-elle indiqué.
« En fait, leur expérience de genre tout au long de leur carrière a façonné toutes les étapes, et il faut vraiment en tenir compte dans le processus de sélection », a-t-elle ajouté.
La Banque Scotia a pris conscience de ce risque et a par conséquent éliminé certaines données de son indice.
La banque a notamment choisi de retirer la scolarité de son modèle et d’utiliser plutôt les expériences de travail, a expliqué Mme Sidhu.
« Il faut en être conscient et il faut être responsable des données, a-t-elle affirmé. Et éliminer ces champs qui ont un biais intrinsèque, de sorte qu’on ne continue pas à exacerber les difficultés. »