Insights Header image
Insights Header image
Insights Header image

L’intelligence artificielle et les initiatives en diversité, équité et inclusion sur le lieu de travail : opportunités et défis

25 juin 2024 Bulletin sur la protection de la vie privée et des données Lecture de 6 min

Compte tenu de leurs vastes capacités en constante évolution, l’intelligence artificielle (« IA ») et les outils soutenus par l’IA ont certainement le potentiel de soutenir l’introduction et l’avancement d’initiatives novatrices et efficaces en matière de diversité, d’équité et d’inclusion (« DEI ») en milieu de travail.

Toutefois, même si l’IA peut aider à cerner les tendances des préjugés inconscients et à favoriser l’établissement de milieux de travail plus inclusifs, entre autres avantages potentiels, l’utilisation de l’IA dans le cadre des initiatives de DEI comporte des risques.

Opportunités potentielles

Grâce à l’automatisation, l’IA peut permettre aux organisations de recueillir et d’analyser des données qui, auparavant, étaient trop coûteuses ou chronophages pour être traitées manuellement. Par exemple, les outils de l’IA peuvent avoir la capacité de regrouper, d’analyser et de tirer des conclusions à partir d’ensembles de données vastes ou complexes afin de déceler des indices de partialité ou d’iniquité dans le recrutement, l’avancement, la rémunération, l’évaluation du rendement, l’attribution du travail et d’autres processus en milieu de travail.

L’une des utilisations les plus répandues des outils d’IA en matière de DEI est de soutenir des efforts de recrutement plus équitables. Certains produits d’IA peuvent favoriser une plus grande objectivité et une plus grande uniformité dans la rédaction des offres d’emploi et des documents de recrutement, dans la sélection des documents de candidature et dans la formulation de questions d’entrevue fondées sur les compétences de base.

Des outils d’IA peuvent également être utilisés pour appuyer l’élaboration et la mise en œuvre de mesures d’adaptation en milieu de travail, y compris pour les employés qui ne travaillent pas dans leur langue maternelle et/ou qui ont un handicap. Par exemple, l’IA permet d’utiliser des outils de plus en plus sophistiqués de texte-à-voix et de voix-à-texte, ainsi que de traduire du texte ou de la voix presque instantanément, ce qui peut améliorer les communications avec les employés.

Risques potentiels

Malgré les avantages potentiels de la mise en œuvre d’outils d’IA dans le cadre des initiatives de DEI, il est important de savoir que l’adoption de tels outils peut également présenter des défis et des risques qui pourraient nuire à la progression des objectifs de DEI en milieu de travail.

L’une des principales préoccupations concerne la possibilité que l’IA introduise ou perpétue des préjugés dans les processus en milieu de travail.

Un préjugé peut survenir ou se perpétuer à cause de l’algorithme d’un outil d’IA lui-même. Un exemple de biais algorithmique se produit lorsqu’un outil d’IA est conçu pour accorder une importance excessive à une caractéristique particulière (comme le temps passé en-dehors du monde du travail) lors de la numérisation et du classement des documents d’application.

Les données de formation utilisées pour enseigner un outil d’IA peuvent aussi être source de partialité. Si des données de nature partiale ou discriminatoire sont utilisées pour former un outil d’IA, l’outil peut produire des résultats reflétant ou même exacerbant ce biais. Par exemple, l’employeur qui souhaite utiliser un outil d’IA pour numériser et classer les demandes d’emploi peut être incité à saisir des données liées aux demandes d’emploi des anciens candidats retenus afin que l’outil puisse identifier des caractéristiques, des compétences ou des expériences semblables. Toutefois, si l’employeur a toujours embauché des candidats qui sont principalement d’une certaine race ou d’un certain sexe, ces caractéristiques peuvent être surreprésentées dans les données, ce qui pourrait à son tour inciter l’identification par l’IA et la prise de décisions automatisées à trop insister sur l’importance de ces caractéristiques.

Lorsqu’un outil reposant sur l’IA est utilisé pour faire des prédictions ou prendre des décisions liées à l’emploi, l’introduction de préjugés peut avoir des conséquences dévastatrices, y compris inciter à prendre des décisions injustes, défavorables ou inexactes à l’égard de personnes qui sont membres de groupes en quête d’équité. Cela peut compromettre sérieusement les objectifs du DEI en milieu de travail et peut amener un employeur à contrevenir à la législation sur les droits de la personne en faisant preuve de discrimination envers certains groupes de candidats ou d’employés.

Enfin, la collecte et le stockage de renseignements démographiques sensibles dans le cadre des initiatives DEI, ainsi que le traitement de ces renseignements au moyen d’outils fondés sur l’IA, entraînent des risques de sécurité uniques. L’accès ou l’utilisation non autorisé peut être perpétué par des tiers malveillants, notamment au moyen d’attaques par piratage ou par rançongiciel, ainsi que par l’espionnage ou l’utilisation abusive par des employés au travail. Les organismes canadiens de réglementation de la protection de la vie privée ont également constaté que l’utilisation d’outils d’IA générative, comme les attaques par injection rapide, les attaques par inversion de modèles et les débridages d’appareils, pose des risques particuliers pour la sécurité, qui peuvent tous compromettre la confidentialité des renseignements personnels sensibles des employés [1]

Mesures à prendre

Les employeurs qui envisagent d’utiliser des outils d’IA pour faire progresser les initiatives de DEI en milieu de travail devraient prendre des mesures proactives pour gérer les risques associés à l’utilisation de ces outils. Les mesures à prendre comprennent :

  • Effectuer des évaluations des risques pour vérifier les fournisseurs et les outils d’IA avant de se les procurer ou de les mettre en œuvre. Envisagez de mettre en œuvre des politiques et des pratiques – comme des questionnaires standard – concernant la sélection et l’intégration des d’outils d’IA et l’engagement des fournisseurs qui les élaborent et les mettent en œuvre. Évaluez quelles dispositions sont obligatoires et prudentes à inclure dans votre contrat ou vos conditions de service avec les tiers qui fournissent une solution d’IA.
  • Effectuer des évaluations des facteurs relatifs à la protection de la vie privée avant de traiter les renseignements personnels dans le cadre des initiatives DEI. Planifier et évaluer le traitement prévu des renseignements personnels dans le cadre de l’utilisation de l’outil activé par l’IA – de la collecte jusqu’à l’élimination – afin de comprendre les obligations de votre milieu de travail en vertu des lois sur la protection des renseignements personnels, l’emploi et les droits de la personne et de formuler un plan pour assurer le respect de ces obligations. Par exemple, tenez compte de toute disposition des lois sur la protection des renseignements personnels et les droits de la personne qui régit la façon dont votre organisation peut recueillir et utiliser les renseignements démographiques des candidats à un emploi et des employés aux fins prévues, ainsi que de toute obligation en matière d’avis et de consentement en vertu des lois sur la protection des renseignements personnels et l’emploi applicables.
  • Comprendre comment prévenir les partis pris, les surveiller et y remédier. Dans le cadre de votre processus de contrôle diligent concernant les fournisseurs et les outils d’IA, confirmez que le modèle d’IA est formé à partir de données diversifiées et de grande qualité, que toutes les caractéristiques et tous les indicateurs mesurés sont pertinents et ne perpétuent pas les biais, et que les biais dans les algorithmes et les données de formation ont été évalués et atténués efficacement. Demander des renseignements sur la façon dont le fournisseur surveillera les biais et y remédiera de façon continue et sur le rôle que l’employeur est censé jouer dans ce processus.
  • N’oublions pas l’importance de la supervision humaine. Veiller à ce qu’il y ait toujours une surveillance humaine appropriée des processus entrepris ou touchés par l’outil d’IA. Ultimement, les employeurs ont la responsabilité de veiller au respect des lois en matière d’emploi, de droits de la personne et d’accessibilité, et ce n’est pas en se fiant uniquement aux outils d’IA qu’ils s’acquitteront de cette responsabilité. S’assurer que le personnel qui utilisera des outils d’IA reçoive une formation propre à son rôle, notamment pour déterminer quand et comment ces outils peuvent être utilisés ainsi que quand et comment une surveillance humaine doit être assurée.
  • Mettre en place des mesures de sécurité appropriées. Assurez-vous que votre organisation et tout fournisseur pertinent aient mis en place des mesures de protection physiques, organisationnelles et technologiques appropriées pour protéger les renseignements sensibles liés à l’IA contre la perte, le vol et l’accès, l’utilisation et la communication non autorisés, entre autres risques. Évaluer périodiquement les mesures de sécurité pour s’assurer qu’elles continuent de répondre adéquatement aux risques propres à l’utilisation des outils d’IA.
  • Élaboration d’une structure de gouvernance en IA. Les organisations devraient élaborer une structure de gouvernance interne de l’IA qui tient compte de tous les cas d’utilisation des outils d’IA liés à la DEI. En plus de la procédure de vérification des fournisseurs et des outils mentionnée ci-dessus, il est important d’avoir des politiques appropriées pour établir des garde-fous concernant l’utilisation par les employés d’outils d’IA dans le cadre de leurs fonctions, y compris des limites prescriptives quant à l’utilisation que les employés peuvent faire de ces outils.

Si vous avez des questions au sujet de la mise en œuvre de ces mesures et d’autres mesures pratiques pour répondre aux risques associés à l’utilisation d’outils d’IA pour poursuivre les initiatives liées à l’IA, un membre du groupe de protection de la vie privée et des données de McMillan sera heureux de vous aider.

[1] Principes pour des technologies d’IA génératives responsables, fiables et protégeant la vie privée

Par Kristen Pennington et Laura Kabbabe (Étudiante en droit)

Mise en garde

Le contenu du présent document ne fournit qu’un aperçu du sujet et ne saurait en aucun cas être interprété comme des conseils juridiques. Le lecteur ne doit pas se fonder uniquement sur ce document pour prendre une décision. Il est préférable d’obtenir un avis juridique spécifique.

© McMillan S.E.N.C.R.L., s.r.l. 2024

Perspectives (5 Posts)Voir Plus

Featured Insight

Comprendre le nouveau règlement québécois sur le traitement des plaintes dans le secteur financier

Ce bulletin résume le nouveau règlement québécois sur le traitement des plaintes dans le secteur financier qui entrera en vigueur le 1er juillet 2025.

Lire plus
17 Juil, 2024
Featured Insight

Mise en garde : l’acceptation d’une offre d’emploi par courriel peut créer un contrat d’emploi valide

Les employeurs doivent s’assurer que toutes les conditions des contrats d’emploi se retrouvent dans l’offre d’emploi initiale de manière à empêcher la conclusion, par inadvertance, d’un contrat comportant des conditions manquantes.

Lire plus
16 Juil, 2024
Featured Insight

Le projet de loi C-59 étend la portée du terme « pratiques commerciales trompeuses » de la loi sur la concurrence : l’écoblanchiment et comment rester à l’écart des fausses représentations en matière d’environnement

Orientations concernant les dispositions sur les pratiques commerciales trompeuses de la Loi sur la concurrence visant à réprimer l’écoblanchiment.

Lire plus
15 Juil, 2024
Featured Insight

Imposition de tarifs : le gouvernement du Canada lance des consultations sur les tarifs à imposer aux véhicules électriques chinois

Cette mesure témoigne de l’engagement du gouvernement à s’attaquer à une série d’allégations de pratiques commerciales déloyales et à protéger les travailleurs et les chaînes d’approvisionnement de VE du Canada.

Lire plus
10 Juil, 2024
Featured Insight

Réglementation finale sous la loi 96 – le statu quo l’emporte, sauf lorsqu’il s’agit de prédominance visuelle

C’est le 26 juin 2024 qu’a été publié un Règlement visant à clarifier et appuyer certaines modifications apportées à la Charte de la langue française en vertu du projet de loi 96

Lire plus
9 Juil, 2024