Mise en garde : une société est tenue responsable des assertions inexactes faites par son robot conversationnel
Mise en garde : une société est tenue responsable des assertions inexactes faites par son robot conversationnel
Dans une décision récente, le British Columbia Civil Resolution Tribunal (le Tribunal) a conclu que la Société Air Canada est responsable de certaines assertions qu’un robot conversationnel a faites à un client sur la page Web d’Air Canada.
Le robot conversationnel a fourni au client des renseignements erronés concernant la politique d’Air Canada en matière de voyages pour cause de deuil. Par conséquent, le client a intenté une action contre Air Canada pour assertion négligente et inexacte. Pour sa défense, Air Canada a soutenu qu’elle ne pouvait pas être tenue responsable des renseignements donnés par son robot conversationnel, ce dernier étant une entité juridique distincte responsable de ses propres actes. Le Tribunal a rejeté cet argument et a donné gain de cause au client.
Les faits
Le 11 novembre 2022, la grand-mère de M. Moffatt est décédée en Ontario. Le même jour, M. Moffatt a visité le site Web d’Air Canada pour réserver un vol et a interagi avec le robot conversationnel du site Web.
Un robot conversationnel est un système automatisé fournissant des renseignements à une personne qui utilise un site Web, en réponse aux questions et aux commentaires de ladite personne.
M. Moffatt a interrogé le robot conversationnel au sujet des tarifs de deuil d’Air Canada. Le robot conversationnel a indiqué qu’il était possible de présenter un billet acheté pour obtenir un tarif de deuil réduit dans les 90 jours suivant la délivrance du billet d’avion. M. Moffatt a ensuite réservé ses vols aux tarifs ordinaires, se fiant à l’avis du robot conversationnel selon lequel il pouvait présenter une demande de remboursement à Air Canada à une date ultérieure.
Le robot conversationnel avait tort.
Lorsque M. Moffatt a présenté ses billets pour obtenir un tarif de deuil réduit, un représentant d’Air Canada l’a informé que le robot conversationnel avait donné des renseignements trompeurs. Malheureusement pour M. Moffatt, Air Canada l’a informé que sa politique en matière de deuil ne s’appliquait pas aux demandes de considération de deuil présentées une fois le voyage terminé.
Un robot conversationnel est-il une entité juridique distincte ?
Air Canada a présenté sa défense en faisant valoir qu’elle ne pouvait être tenue responsable des renseignements inexacts fournis par l’un de ses agents, employés ou représentants, y compris un robot conversationnel. Toutefois, le Tribunal a rejeté cette défense. Bien qu’un robot conversationnel présente un élément interactif, il fait toujours partie du site Web d’Air Canada, et Air Canada est responsable de tous les renseignements figurant sur son site Web, y compris les renseignements fournis par son robot conversationnel. Que les renseignements proviennent d’une page Web statique ou d’un robot conversationnel ne change rien.
Air Canada est tenue responsable d’assertions négligentes et inexactes
En raison de la relation commerciale entre Air Canada et M. Moffatt, le Tribunal a conclu qu’Air Canada avait une obligation de diligence envers M. Moffatt et devait veiller à ce que ses assertions soient exactes et non trompeuses. La Société Air Canada a manqué à son obligation et omis de faire preuve de diligence raisonnable en ne s’assurant pas que son robot conversationnel donnait des renseignements exacts. Par conséquent, elle a été tenue responsable des dommages subis par M. Moffatt, c’est-à-dire la différence entre le prix que M. Moffatt a payé pour ses billets aux tarifs ordinaires et le tarif de deuil d’Air Canada.
Les répercussions en ce qui concerne les outils d’intelligence artificielle
La décision du Tribunal n’indique pas clairement si le robot conversationnel d’Air Canada a utilisé la technologie de l’intelligence artificielle pour composer ses réponses. Il pourrait s’agir d’un robot conversationnel fondé sur des règles qui donne des réponses préétablies en se fondant sur des mots-clés dans les demandes de la clientèle. Dans un tel cas, l’erreur pourrait être le résultat d’un script inexact ou obsolète.
La décision a tout de même des répercussions importantes sur tous les types de robots conversationnels, y compris ceux qui sont alimentés par l’intelligence artificielle et les grands modèles de langage. Que convient-il d’en retenir? Les sociétés peuvent être tenues responsables de tout ce que dit leur robot conversationnel.
Par conséquent, il serait souhaitable que les sociétés évaluent le type de robot conversationnel approprié à leur plateforme et qu’elles déterminent si un simple robot conversationnel fondé sur des règles est une option plus sécuritaire. En outre, il serait souhaitable que les sociétés rédigent des avertissements lorsque des robots conversationnels sont déployés. Cela informerait les utilisateurs des risques d’hallucinations ou d’inexactitudes, mais il convient toutefois de garder à l’esprit qu’une telle mesure pourrait ne pas entièrement protéger les sociétés contre les risques. Pour terminer, lorsqu’une société a l’intention d’utiliser un robot conversationnel fondé sur l’IA, elle doit lui faire soigneusement subir des essais avant sa mise en œuvre pour réduire les risques d’hallucinations, d’inexactitudes ou d’autres problèmes.
À retenir
- La décision susmentionnée donne un aperçu de ce qu’un tribunal peut juger être une position raisonnable à adopter dans un litige impliquant la diffusion de renseignements erronés.
- Comme avec les paroles de leurs employés et de leurs agents, les sociétés peuvent être présumées responsables de la production de leurs robots conversationnels.
- Cette décision montre également qu’un organisme judiciaire hésitera à statuer que la technologie peut être « responsable » de renseignements erronés et à permettre à une société d’échapper à toute responsabilité en conséquence.
- Les sociétés qui mettent en œuvre un robot conversationnel ou un outil similaire destiné aux clients sur leur site Web devraient faire en sorte que l’outil soit aussi simple que possible aux fins requises, donner des avertissements et faire subir des essais rigoureux au système avant sa mise en œuvre.
- Si votre société est impliquée dans une affaire concernant des robots conversationnels ou des outils d’intelligence artificielle, envisagez sérieusement de régler l’affaire hors cour. Bien que la demande ait porté sur des dommages-intérêts relativement symboliques (812,02 $), la décision conséquente a déjà fait la une de l’actualité internationale [1].
[1] Voir les articles publiés récemment (en anglais) sur l’incident par la BBC et Forbes, par exemple.
Par Robert Piasentin, Carina Chiu, Robbie Grant, Danielle Perris (stagiaire en droit)
Mise en garde
Le contenu du présent document ne fournit qu’un aperçu du sujet et ne saurait en aucun cas être interprété comme des conseils juridiques. Le lecteur ne doit pas se fonder uniquement sur ce document pour prendre une décision, mais devrait plutôt obtenir des conseils juridiques précis. Il est préférable d’obtenir un avis juridique spécifique.
© McMillan S.E.N.C.R.L., s. r. l. 2024
Perspectives (5 Posts)Voir Plus
Considérations juridiques au Canada liées au « clonage de la voix »
Dans ce bulletin, nous examinons quelques causes d’action possible au Canada pour une personne victime de clonage de la voix.
Analyse des contrats de partenariat prévus par le projet de loi 62 sur les infrastructures publiques au Québec
Le projet de loi n° 62, Loi visant principalement à diversifier les stratégies d’acquisition des organismes publics et à leur offrir davantage d’agilité dans la réalisation de leurs projets d’infrastructure (« projet de loi 62 ») a été adopté en octobre 2024 par l’Assemblée nationale du Québec.
La réforme de la lutte contre le blanchiment d’argent et les sanctions au Canada deviennent sérieuses : ajout de joueurs, de règles et de renseignements à déclarer
La réforme de la lutte contre le blanchiment d’argent au Canada devient sérieuse : ajout de joueurs, de règles et de détails à déclarer.
Alerte à l’intention des conseillers : ce que les conseillers inscrits doivent savoir sur le règlement 93-101 sur la conduite commerciale en dérivés
Le Règlement 93-101 sur la conduite commerciale en dérivés crée un cadre exhaustif pour la conduite des courtiers et des conseillers sur le marché des dérivés de gré à gré.
Quoi de neuf dans les questions fréquemment posées : orientations récentes du bureau de la concurrence sur les modifications apportées à la Loi sur la concurrence du Canada
Commentaire sur les Questions fréquemment posées du Bureau de la concurrence décrivant la manière dont le Bureau appliquera les dispositions modifiées de la Loi sur la concurrence relatives aux fusions et aux comportements susceptibles d’examen.
Recevez des mises à jour directement dans votre boîte de réception. Vous pouvez vous désabonner en tout temps.