Insights Header image
Insights Header image
Insights Header image

Aperçu du cadre juridique canadien relatif aux systèmes d’intelligence artificielle à la suite de l’adoption de la loi sur l’IA en Europe

9 août 2024 Bulletin sur la technologie Lecture de 11 min

Les logiciels, les outils, et les services d’intelligence artificielle (IA) ainsi que les produits connexes font maintenant partie intégrante de nos vies, que nous en soyons conscients ou non. Lorsque nous effectuons des achats en ligne, interagissons avec des entreprises en personne, naviguons sur le Web ou utilisons des applications mobiles, les organisations peuvent tirer parti des systèmes d’IA pour communiquer avec nous, connaître nos préférences et nos habitudes, et tenter d’élaborer des renseignements commerciaux fondés sur des données pour arriver à leurs fins. À mesure que les technologies d’IA évoluent, les avantages et les risques qu’elles offrent sont sans précédent.

Le 1ᵉʳ août 2024, le règlement établissant des règles harmonisées concernant l’intelligence artificielle (loi sur l’IA) de l’Union européenne est entré en vigueur. Il établit un ensemble complet de règles et d’obligations relatives aux systèmes d’IA. Alors que les organisations canadiennes évaluent leurs obligations qui découlent de la loi sur l’IA, le moment est bien choisi pour vous donner un aperçu du cadre juridique canadien applicable aux systèmes d’IA afin que vous puissiez mettre en œuvre une stratégie de conformité complète.

Dans le présent article, nous effectuerons d’abord un bref survol de la loi sur l’IA, suivi d’une explication plus détaillée du cadre juridique canadien applicable aux systèmes d’IA.

A. Aperçu de la loi sur l’IA de l’Union européenne

Pour commencer, il est important de garder à l’esprit que notre aperçu de la loi sur l’IA ne vise qu’à vous fournir des renseignements généraux. Si vous avez besoin de conseils juridiques concernant la loi sur l’IA, veuillez consulter un avocat compétent.

Cela dit, commençons.

1. Quel est l’objectif de la loi sur l’IA ?

La principale raison pour laquelle l’Union européenne a adopté la loi sur l’IA est l’équilibrage de l’innovation et des garanties appropriées. En fait, la loi sur l’IA interdit expressément certains types de pratiques en matière d’IA et réglemente étroitement les systèmes d’IA classifiés comme étant « à haut risque ». Les systèmes d’IA à risque limité ou à faible risque peuvent également être touchés, mais pas aussi sévèrement que les systèmes d’IA à haut risque.

2. Qu’est-ce qu’un « système d’IA » pour l’application de la loi sur l’IA de l’Union européenne ?

D’après une simple lecture de la loi sur l’IA de l’Union européenne, les « systèmes d’intelligence artificielle » sont définis comme : i) tout logiciel développé au moyen de l’une ou de plusieurs des techniques et approches définies dans la loi (comme l’apprentissage automatique, les approches fondées sur la logique et les connaissances ou les approches statistiques) ; et ii) tout logiciel qui peut générer des sorties comme du contenu, des prévisions, des recommandations ou des décisions influant sur les environnements avec lesquels il interagit.

3. À qui s’applique la loi sur l’IA ?

Il semble que la loi sur l’IA puisse s’appliquer : i) aux fournisseurs qui mettent des systèmes d’IA sur le marché ou qui les mettent en service dans l’Union européenne (UE) (que ces fournisseurs aient ou non un établissement dans l’UE) ; ii) aux utilisateurs de systèmes d’IA situés dans l’UE ; et iii) aux fournisseurs ou aux utilisateurs de systèmes d’IA situés à l’extérieur de l’UE, mais dont les sorties sont utilisées dans l’UE.

4. Quelles sont les pratiques interdites relatives à l’IA ?

La loi sur l’IA interdit certains types de pratiques relatives à l’IA. Par exemple : (i) des systèmes d’IA qui ont recours à des techniques subliminales, au-dessous du seuil de conscience d’une personne et qui lui causent un préjudice ; ii) des systèmes d’IA qui exploitent les vulnérabilités d’une personne ou d’un groupe de personnes et qui lui causent un préjudice ; ou iii) l’utilisation par une autorité publique de systèmes d’IA permettant une notation sociale conduisant au traitement préjudiciable de personnes.

5. Qu’est-ce qu’un système d’IA « à haut risque » ?

D’après notre lecture simple, il semble que la loi sur l’IA établisse une méthode pour la classification d’un système d’IA comme étant à haut risque. Les systèmes d’IA seront classifiés comme étant à haut risque dans la mesure où ils présentent des risques importants pour la santé, la sécurité ou les droits fondamentaux. Par exemple, de tels systèmes peuvent être utilisés à titre de composante de sécurité d’un produit, pour l’identification biométrique et la catégorisation des particuliers, à des fins de recrutement, et peuvent comprendre divers autres types de systèmes d’IA.

Maintenant que cet aperçu de la loi sur l’IA est terminé, voici une explication plus détaillée du cadre juridique canadien relatif aux systèmes d’IA.

B. Aperçu du cadre juridique canadien relatif aux systèmes d’intelligence artificielle

1. Le Canada dispose-t-il d’un cadre juridique exhaustif relatif à l’intelligence artificielle semblable à celui prévu par la loi sur l’IA ?

Au moment de la rédaction du présent article, le Canada n’a pas de législation exhaustive régissant les systèmes d’IA semblable à la loi sur l’IA de l’Union européenne. Les organisations doivent donc tenir compte d’un ensemble disparate de lois et de règlements fédéraux et provinciaux pour s’assurer qu’elles conçoivent, développent, déploient, distribuent et vendent leurs systèmes d’IA en respectant les limites des lois canadiennes.

2. Le Canada adoptera-t-il un cadre juridique exhaustif relatif aux systèmes d’intelligence artificielle ?

Reconnaissant l’évolution rapide des technologies d’IA et le risque possible de préjudice pour les Canadiens, le gouvernement fédéral canadien a déposé en 2022 le projet de loi C-27, qui vise à moderniser la législation canadienne sur la protection de la vie privée et des renseignements personnels et à introduire la Loi sur l’intelligence artificielle et les données LIAD ») établissant un cadre juridique applicable spécifiquement aux systèmes d’IA. L’objectif de la LIAD est de veiller à ce que les organisations disposent des fondements juridiques nécessaires pour concevoir, développer et déployer de façon responsable les systèmes d’IA au Canada. À l’heure actuelle, le projet de loi C-27 est toujours à l’étude à la Chambre des communes et il suit le processus législatif canadien.

3. Qu’implique la LIAD ?

L’objectif principal poursuivi par le gouvernement canadien avec la LIAD est de veiller à ce que les systèmes d’IA soient conçus, développés et déployés de façon sécuritaire pour le bien de la société et sans porter préjudice aux Canadiens. De plus, l’objectif du gouvernement est de tenir les organisations qui participent à la conception, au développement et au déploiement de systèmes d’IA responsables des produits et services qu’elles mettent sur le marché canadien ou qu’elles permettent aux Canadiens d’utiliser.

La LIAD utilise une approche fondée sur des principes qui oblige les fournisseurs de systèmes à incidence élevée à s’assurer que leurs systèmes d’IA sont soigneusement évalués en fonction du risque possible de préjudice ou de biais, qu’ils informent adéquatement les utilisateurs des utilisations prévues et des limites du système d’IA et qu’ils établissent des mesures d’atténuation des risques de façon continue.

a. Qu’est-ce qu’un « système d’IA » au sens de la LIAD ?

D’après la version actuelle du projet de loi C-27, la LIAD définit un « système d’intelligence artificielle » en ces termes : « Système technologique qui, de manière autonome ou partiellement autonome, traite des données liées à l’activité humaine par l’utilisation d’algorithmes génétiques, de réseaux neuronaux, d’apprentissage automatique ou d’autres techniques pour générer du contenu, faire des prédictions ou des recommandations ou prendre des décisions ». Dans la mesure où votre logiciel, votre application ou votre outil répond à ces exigences, il sera considéré comme un « système d’IA » aux termes de la LIAD.

b. À qui s’applique la LIAD ?

D’après la version actuelle du projet de loi C-27, la LIAD s’applique à toute organisation, y compris les fiducies, les sociétés de personnes, les coentreprises, les associations non dotées de la personnalité morale et toute autre entité qui, dans le cadre des échanges ou du commerce internationaux ou interprovinciaux, conçoit, développe ou rend disponible un système d’IA ou en gère l’exploitation. Ainsi, la LIAD peut cibler un large éventail d’organisations et d’acteurs dans le domaine de l’IA, y compris des développeurs, des fournisseurs, des utilisateurs, entre autres.

c. Qu’est-ce qu’un « système à incidence élevée » pour l’application de la LIAD ?

D’après la version actuelle du projet de loi C-27, selon la LIAD, un « système à incidence élevée » est le système d’intelligence artificielle qui satisfait à certains critères établis par règlement. Par conséquent, nous n’avons aucune définition concrète des tels systèmes, ce qui restera vrai jusqu’à l’adoption d’un règlement à cet effet, advenant l’adoption du projet de loi C-27 dans sa version actuelle. Le gouvernement canadien estime qu’il est plus approprié de définir les « systèmes à incidence élevée » dans un règlement subséquent. Une telle approche permet d’augmenter la précision pour l’identification de ces systèmes, d’assurer une meilleure interopérabilité avec d’autres cadres internationaux régissant les systèmes d’IA et d’assurer un meilleur suivi des progrès technologiques dans la loi.

Dans La Loi sur l’intelligence artificielle et les données (LIAD) – document complémentaire, le gouvernement du Canada précise certaines considérations importantes pour la définition de systèmes à incidence élevée pour les fins de l’adoption d’un règlement, soit :

  • « Des preuves de l’existence de risques de préjudices physiques ou psychologiques, ou d’un risque d’impact négatif sur les droits de la personne, en fonction à la fois de l’objectif et des conséquences potentielles non intentionnelles ;
  • La gravité des préjudices potentiels ;
  • L’ampleur de l’utilisation ;
  • La nature des préjudices ou des impacts négatifs qui ont déjà eu lieu ;
  • La mesure dans laquelle, pour des raisons pratiques ou juridiques, il n’est pas raisonnablement possible de se retirer de ce système ;
  • Les déséquilibres en matière de pouvoir, de connaissances, de situation économique ou sociale, ou d’âge des personnes touchées ;
  • La mesure dans laquelle les risques sont réglementés de façon adéquate en vertu d’une autre loi. »

4. En l’absence d’une législation exhaustive au Canada, comment les systèmes d’IA sont-ils réglementés ?

Comme susmentionné, les organisations doivent tenir compte de la façon dont une variété de lois et de règlements s’appliquent à la conception, au développement et au déploiement des systèmes d’IA au Canada. Voici un résumé du contexte juridique actuel relatif aux systèmes d’IA (en gardant à l’esprit qu’il ne s’agit pas d’un aperçu exhaustif).

a. Application des lois sur la protection de la vie privée des renseignements personnels

Les organisations peuvent être assujetties aux lois fédérales ou provinciales sur la protection de la vie privée et des renseignements personnels si leurs systèmes d’IA recueillent, utilisent, traitent, stockent ou manipulent autrement des renseignements personnels. Par exemple, les systèmes d’IA qui recueillent des données en ligne, y compris des renseignements personnels, devront se conformer aux lois canadiennes ou provinciales sur la protection de la vie privée et des renseignements personnels puisqu’ils ont recueilli, traité et utilisé ces renseignements personnels.

La Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) est une loi fédérale qui peut s’appliquer à toutes les organisations. Des lois provinciales sur la protection de la vie privée et des renseignements personnels jugées essentiellement semblables à la LPRPDE peuvent également s’appliquer à la place de cette loi, particulièrement en Colombie-Britannique, en Alberta et au Québec.

Le 7 décembre 2023, le Commissariat à la protection de la vie privée du Canada (CPVP), de concert avec les autorités provinciales en matière de protection de la vie privée, a publié les Principes pour des technologies de l’intelligence artificielle (IA) générative responsables, dignes de confiance et respectueuses de la vie privée (Conseils sur l’IA générative) afin d’aider les organisations qui développent, fournissent ou utilisent des technologies d’IA générative à se conformer aux lois et règlements sur la protection de la vie privée et des renseignements personnels au Canada. Le CPVP est d’avis que « [b]ien que les outils d’IA générative puissent poser de nouveaux risques relatifs à la protection de la vie privée, et soulever de nouvelles questions et préoccupations au sujet de la collecte, de l’utilisation et de la communication de renseignements personnels, ils n’échappent pas aux cadres législatifs actuels ».

Dans ces Conseils sur l’IA générative, le CPVP cerne les considérations relatives à l’application des principes clés de protection de la vie privée aux technologies d’IA générative, permettant aux fournisseurs, aux développeurs et aux organisations qui utilisent l’IA générative de se conformer à leurs obligations respectives en matière de protection de la vie privée conformément aux paramètres actuels de la loi.

b. Application des lois sur le travail

Diverses lois provinciales établissent les normes du travail minimales de chaque province. Bien que ces lois ne soient pas conçues expressément pour régir les systèmes d’IA, lorsqu’ils utilisent leurs systèmes d’IA, les employeurs sont priés de respecter ces normes minimales afin d’éviter d’y manquer de façon involontaire. Par exemple, une société qui utilise un système d’IA pour surveiller le rendement des employés peut violer les lois du travail applicables si le modèle d’IA pénalise injustement les employés ayant divers handicaps.

c. Application des lois sur les droits de la personne

Au Canada, la Loi canadienne sur les droits de la personne interdit la discrimination fondée sur divers motifs comme la race, l’origine nationale ou ethnique, la couleur, la religion, l’âge, le sexe, l’orientation sexuelle, l’identité ou l’expression de genre, l’état matrimonial, la situation de famille, les caractéristiques génétiques, la déficience ou l’état de personne graciée. Les lois provinciales sur les droits de la personne peuvent également être applicables, par exemple, la Charte des droits et libertés de la personne au Québec ou le Code des droits de la personne en Ontario.

Par conséquent, les organisations peuvent être tenues responsables en vertu des lois canadiennes sur les droits de la personne dans la mesure où elles utilisent des systèmes d’IA qui entraînent des résultats discriminatoires. Par exemple, un employeur qui utilise un système d’IA (contenant des biais) pour filtrer les demandes d’emploi peut, par inadvertance, faire preuve de discrimination envers certains groupes de postulants.

d. Application des lois sur la propriété intellectuelle

Du point de vue de la propriété intellectuelle, même si les lois ne traitent pas expressément des systèmes d’IA, elles présentent le cadre dans lequel la propriété intellectuelle, comme les brevets, les droits d’auteur, les marques de commerce et les autres droits de propriété intellectuelle, peut être protégée. Par exemple, la Loi sur le droit d’auteur peut servir à protéger les systèmes d’IA, comme les logiciels ou les bases de données qu’ils peuvent contenir, entre autres.

Qu’en est-il de la protection des œuvres produites par des systèmes d’IA générative ? Est-ce que la protection du droit d’auteur pourrait être accordée à un système d’IA en tant qu’« auteur » ? Un système d’IA pourrait-il être considéré comme un « inventeur » à des fins de brevets ? Ce sujet fait actuellement l’objet de discussions. Par exemple, dans le Document de consultation : Consultation sur le droit d’auteur à l’ère de l’intelligence artificielle générative, le gouvernement fédéral affirme que « Ces développements rapides de la technologie de l’IA, combinés à son application florissante dans divers secteurs de l’économie, ont amené le gouvernement à se demander si la Loi [sur le droit d’auteur] est adaptée pour répondre aux questions de la titularité et de la propriété des œuvres produites par l’IA ou assistées par l’IA ».  Le gouvernement ajoute qu’« il pourrait y avoir des façons de clarifier la propriété initiale des œuvres produites par l’IA ou assistées par l’IA en réexaminant la façon de définir un auteur, ou même sans se fonder sur le concept d’“auteur” ».

Les systèmes d’IA pourraient également enfreindre les droits de propriété intellectuelle d’autres personnes. Par exemple, les employés d’une société peuvent utiliser des systèmes d’IA générative pour créer une image qui risque d’enfreindre les droits d’auteur d’un artiste.

Les organisations doivent évaluer soigneusement leurs droits et obligations prévus par les lois canadiennes sur la propriété intellectuelle pour s’assurer que leurs systèmes d’IA sont bien protégés et qu’ils ne portent pas atteinte aux droits de propriété intellectuelle de tiers.

e. L’application des lois sur la protection du consommateur

Les organisations doivent veiller à ce que leurs systèmes d’IA soient offerts aux consommateurs conformément aux lois provinciales applicables en matière de protection des consommateurs. Non seulement certaines lois générales sur la protection du consommateur dans chaque province sont-elles applicables, certaines lois précises peuvent également s’appliquer aux activités liées au consommateur, comme la Loi canadienne sur la sécurité des produits de consommation, la Loi sur les aliments et drogues ou la Loi sur la sécurité automobile, entre autres.

Par exemple, une société peut violer des lois sur la protection du consommateur si elle met des systèmes d’IA à la disposition des consommateurs sans le leur divulguer adéquatement, si elle ne respecte pas les formalités de formation des contrats de consommation, si elle rend difficile, voire impossible, l’annulation des contrats par les consommateurs ou si elle facture des frais cachés, entre autres choses.

f. Code criminel

Dans la mesure où une personne utilise des systèmes d’IA pour commettre un crime, le Code criminel du Canada peut s’appliquer. Par exemple, une personne peut utiliser des systèmes d’IA pour se faire passer pour une autre personne afin de commettre un crime, pour commettre des actes de fraude, de cybercriminalité ou de vol d’identité, ou pour se livrer, à l’aide de systèmes d’IA ou en utilisant de tels systèmes, à toute autre activité ou conduite qui peut être considérée comme un comportement criminel. Par conséquent, même si le Code criminel n’est pas conçu pour réglementer directement les systèmes d’IA, les utilisations malveillantes de ces systèmes peuvent mener à des enquêtes criminelles par les autorités et, éventuellement, à des poursuites.

Conclusion

Les autorités canadiennes et celles de l’Union européenne reconnaissent la nécessité d’établir un cadre juridique régissant les systèmes d’IA qui favorisent l’innovation et dont la société profitera d’une manière équitable, transparente et sécuritaire.

Avec l’adoption de la loi sur l’IA, l’Union européenne a maintenant une législation exhaustive établissant des mesures pour l’utilisation responsable et transparente de l’IA. Au Canada, les systèmes d’IA doivent être utilisés conformément aux lois et règlements actuels – comme les lois sur la protection de la vie privée et des renseignements personnels, les lois sur la protection des consommateurs, les lois sur les droits de la personne ou d’autres lois – en fonction de la nature des activités d’une société ou de son utilisation du système d’IA.

Toutefois, si le projet de loi C-27 est adopté, le Canada aura également une loi exhaustive conçue expressément pour réglementer les systèmes d’IA. Au moment de rédiger cet article, l’adoption du projet de loi C-27 demeure hypothétique.

En fin de compte, ce qui est rassurant, c’est que le Canada et l’Union européenne s’efforcent d’atteindre le même objectif : la conception, le développement et le déploiement responsables de systèmes d’IA.

par Amir Kashdaran

Mise en garde

Le contenu du présent document ne fournit qu’un aperçu du sujet et ne saurait en aucun cas être interprété comme des conseils juridiques. Le lecteur ne doit pas se fonder uniquement sur ce document pour prendre une décision, mais devrait plutôt obtenir des conseils juridiques précis. Il est préférable d’obtenir un avis juridique spécifique.

© McMillan S.E.N.C.R.L., s. r. l. 2024

Perspectives (5 Posts)Voir Plus

Featured Insight

Une entreprise ordonnée de cesser l’utilisation de la technologie de reconnaissance faciale pour le contrôle des accès à ses locaux : un aperçu de la décision de la Commission d’accès à l’information du Québec

Ce bulletin donne un aperçu de la décision de la Commission d’accès à l’information du Québec d’ordonner à une entreprise de cesser l’utilisation de la technologie de reconnaissance faciale.

Lire plus
14 Fév, 2025
Featured Insight

Pouce vers le haut ou accord conclu? Une cour confirme qu’un emoji est une acceptation valide d’un contrat

Nous nous penchons sur la décision de la Cour d’appel de la Saskatchewan à savoir si un emoji « pouce vers le haut » envoyé par message texte constitue une acceptation d’un contrat.

Lire plus
13 Fév, 2025
Featured Insight

La pause dans la guerre tarifaire : utilisation judicieuse de ce sursis par les entreprises

Les entreprises canadiennes devraient se préparer aux tarifs américains, devant commencer le 4 mars 2025, en tenant compte de l’offre des drawbacks et des demandes de remise des tarifs.

Lire plus
13 Fév, 2025
Featured Insight

Le Tribunal de la concurrence s’invite au cinéma : aperçu de la décision rendue dans l’affaire d’indication de prix partiel de cineplex

Le Tribunal de la concurrence a rendu sa décision dans l’affaire Commissaire de la concurrence c. Cineplex Inc., appliquant pour la première fois les dispositions relatives à l’« indication de prix partiel ».

Lire plus
13 Fév, 2025
Featured Insight

Préparez-vous (double mise à jour)! Le Canada introduit une feuille de route proposée visant à prolonger la durée de vie des plastiques contenus dans les produits électroniques et une norme de recyclage des plastiques

Préparez-vous (double mise à jour)! Le Canada introduit une feuille de route proposée visant à prolonger la durée de vie des plastiques contenus dans les produits électroniques et une norme de recyclage des plastiques.

Lire plus
6 Fév, 2025