
« Bien que l’avocat du défendeur ne l’ait pas reconnu directement, nous reconnaissons que la loi inventée dans le mémoire du défendeur résulte probablement de l’utilisation de l’intelligence artificielle. Nous reconnaissons également qu’il est devenu courant de qualifier les cas et les principes inventés par l’intelligence artificielle d’« hallucinations ». Nous rejetons cette terminologie, car elle occulte à la fois la nature et la gravité de la situation à laquelle nous sommes confrontés. Le mot « hallucination » signifie généralement « perception d’objets qui n’existent pas, résultant généralement d’un trouble du système nerveux ou d’une réaction à des drogues (comme le LSD) ». Merriam-Webster’s Collegiate Dictionary 524 (10e éd. 1993). Ici, cependant, d’après ce que nous comprenons, l’intelligence artificielle générative ne perçoit pas une loi inexistante comme le résultat d’un trouble. Elle génère plutôt des lois inexistantes conformément à sa conception. Et ces lois inexistantes sont, depuis plusieurs années, soumises à plusieurs reprises aux tribunaux. »
Ringo c. Colquhoun Design Studio, LLC 345 Or App 301 (2025) p. 303-304 (https://cases.justia.com/oregon/court-of-appeals/2025-a186670.pdf?ts=1764780757)
Merci à Alice Hewitt qui a mis en avant cette décision !
J’avais parlé de l’inadéquation du terme ici : https://droitdutravailensuisse.com/2025/05/04/les-hallucinations-de-lia-generative-dereglement-des-sens-ou-logique-de-lidee/
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle