La décision rendue par le Civil Resolution Tribunal (CA) en date du 14 février 2024 dans l’affaire Moffatt v. Air Canada (Moffatt v. Air Canada, 2024 BCCRT 149 (CanLII)) se penche sur la responsabilité d’une compagnie aérienne pour des informations inexactes fournies par son Chatbot :
Jake Moffatt, ensuite du décès de sa grand-mère en novembre 2022, a réservé un vol sur Air Canada de Vancouver à Toronto. Pour faire sa réservation, il a utilisé un chatbot sur le site internet de la compagnie aérienne, soit une intelligence artificielle qui exploite des bases de données linguistiques et des algorithmes associés à des méthodes d’apprentissage automatisé pour apporter des réponses automatiques aux questions posées par les utilisateurs.
Le chatbot a notamment informé Jake Moffatt qu’il pouvait avoir droit, rétroactivement, à un tarif préférentiel en lien avec un décès (bereavement fares) – tarif préférentiel qui s’est ensuite avéré ne pas pouvoir être demandé avec effet rétroactif. Il demande donc au Civil Resolution Tribunal canadien (CRT), qui s’occupe de contentieux de masse à faible valeur litigieuse, la différence entre ce qu’il avait payé, et ce qu’il aurait dû en application de ce tarif préférentiel pour décès qu’on lui avait annoncé (faussement) pouvoir être réclamé rétroactivement dans un délai de 90 jours maximum après le vol.
La question est donc de savoir si la compagnie a fait preuve de « negligent misrepresentation », soit la situation où un vendeur « (…) does not exercise reasonable care to ensure its representations are accurate and not misleading. » (N 24) Pour que Jake Moffat puisse voir ses prétentions admises, il faudrait donc que la compagnie « (…) owed [him] a duty of care, its representation was untrue, inaccurate, or misleading, Air Canada made the representation negligently, Mr. Moffatt reasonably relied on it, and Mr. Moffatt’s reliance resulted in damages. » (N 25)
En raison de la nature commerciale de la transaction, le CRT considère d’abord qu’Air Canada avait un devoir de diligence à l’égard de M. Moffatt. En règle générale, la norme de diligence applicable exige qu’une entreprise prenne des mesures raisonnables pour s’assurer que ses déclarations sont exactes et non trompeuses.
Et le CRT de poursuivre :
« Air Canada argues it cannot be held liable for information provided by one of its agents, servants, or representatives – including a chatbot. It does not explain why it believes that is the case. In effect, Air Canada suggests the chatbot is a separate legal entity that is responsible for its own actions. This is a remarkable submission. While a chatbot has an interactive component, it is still just a part of Air Canada’s website. It should be obvious to Air Canada that it is responsible for all the information on its website. It makes no difference whether the information comes from a static page or a chatbot. » (N 27)
(Traduction : Air Canada soutient qu’elle ne peut être tenue responsable des informations fournies par l’un de ses agents, préposés ou représentants – y compris un chatbot. Elle n’explique pas pourquoi elle pense que c’est le cas. En fait, Air Canada suggère que le chatbot est une entité juridique distincte qui est responsable de ses propres actions. Il s’agit là d’un argument extravagant. Bien qu’un chatbot ait une composante interactive, il n’est encore qu’une partie du site web d’Air Canada. Il devrait être évident pour Air Canada qu’elle est responsable de toutes les informations figurant sur son site web. Que ces informations proviennent d’une page statique ou d’un chatbot ne fait aucune différence ».)
Le CRT considère que la compagnie n’a pas pris les mesures raisonnables qui s’imposent pour s’assurer que son chatbot fournisse des renseignements exacts. Le simple renvoi à une autre page du site internet de la compagnie n’est pas suffisant ; en effet, il n’est pas expliqué pourquoi la page à laquelle il est renvoyé serait plus digne de confiance que le chatbot, et pourquoi un client devrait vérifier (double-check) les informations trouvées sur une partie d’un site web par d’autres informations figurant ailleurs sur ce même site web. Le CRT ne voit pas comment Jake Moffatt aurait pu savoir qu’une partie des renseignements trouvés sur le site étaient juste, et l’autre non. Nrs 28-29)
Par ailleurs, Jake Moffatt a rendu vraisemblable qu’il n’aurait pas réservé un vol à la dernière minute sans cette possibilité de réduction décès (bereavement fares).
Le CRT condamne donc Air Canada a rembourser le dommage subi par Jake Moffat, soit la différence entre les deux tarifs (ordinaire / bereavement) avec intérêts et aux frais de justice.
(Source: https://www.canlii.org/en/bc/bccrt/doc/2024/2024bccrt149/2024bccrt149.html)
Me Philippe Ehrenström, avocat, LLM
