
Les cas d’hallucinations dans des écritures produites en justice sont légion aux Etats-Unis depuis Mata v. Avianca, Inc., No. 1:2022cv01461 – Document 54 (S.D.N.Y. 2023). Ce qui est intéressant dans Lacey v. State Farm (C.D. Cal., mai 2025) (Case No. 24-5205 FMO (MAAx)) (https://digitalcommons.law.scu.edu/cgi/viewcontent.cgi?article=3920&context=historical), c’est que le dossier implique deux Etudes, et que la décision traite plus particulièrement du devoir d’information quant à l’utilisation de l’IA envers les Confrères et le juge.
Dans une affaire civile opposant une ancienne magistrate californienne à sa compagnie d’assurance, un juge fédéral américain, désigné comme « Special Master », avait été chargé de superviser un différend relatif à la communication de documents confidentiels. À cette occasion, la demanderesse a déposé un mémoire destiné à convaincre le juge d’imposer la divulgation de certains échanges internes à l’assureur. Ce qui aurait pu être un épisode technique de procédure civile est devenu un cas d’école en matière d’usage de l’intelligence artificielle dans les pratiques judiciaires.
Très vite après réception du mémoire, le juge a constaté que plusieurs références à des arrêts judiciaires paraissaient douteuses, voire invérifiables. Il a entrepris de rechercher lui-même les décisions citées, sans succès. Alerté, il a demandé des explications aux avocats. Ceux-ci ont alors retiré certaines citations erronées et transmis une nouvelle version du mémoire, tout en restant silencieux sur la raison de ces erreurs.
Ce n’est que plus tard, dans le cadre d’une procédure formelle sur d’éventuelles sanctions, que la vérité a été établie : un avocat avait utilisé des outils d’intelligence artificielle pour produire un plan juridique initial, une sorte de « brouillon » de l’écriture. Ce plan contenait des résumés d’arrêts et des citations inventées ou inexactes, ce que l’avocat lui-même n’avait pas identifié comme tel. Il avait transmis ce plan tel quel à ses collègues d’un autre cabinet, sans leur préciser que l’origine des contenus était une IA. Ces derniers ont ensuite intégré des éléments du plan dans le mémoire final sans effectuer de vérifications.
Le juge a été clair : ce genre de pratique n’est pas acceptable. Selon lui, les outils d’IA actuels ne permettent pas de s’y fier aveuglément. Il n’est pas encore admissible de leur déléguer des tâches telles que la recherche ou la rédaction juridique sans validation humaine. Le problème n’était pas tant l’usage de l’IA en soi, que l’opacité entourant son emploi. Le juge a estimé que la combinaison de l’utilisation cachée d’un outil génératif, de l’absence de relecture rigoureuse et de la réponse trompeuse donnée lorsqu’il a relevé les erreurs, constituait un comportement assimilable à de la mauvaise foi.
Il a donc annulé purement et simplement le mémoire fautif. En conséquence, la demanderesse a perdu toute chance d’obtenir les documents qu’elle demandait. Pour renforcer l’effet dissuasif, le juge a ordonné aux deux cabinets d’avocats concernés de verser plus de trente mille dollars à la défense. Il a toutefois refusé de sanctionner individuellement les avocats, considérant que les fautes étaient collectives et qu’ils avaient fait preuve de remords sincères. La cliente, elle, n’a pas été rendue responsable.
Ce jugement a surtout mis en lumière une exigence croissante : la transparence dans l’usage de l’intelligence artificielle en contexte judiciaire. Le juge a rappelé qu’un avocat ne peut pas, même involontairement, tromper le tribunal en introduisant des éléments fictifs issus d’une IA sans le dire. Le devoir d’information ne concerne pas uniquement le juge. Il s’impose aussi entre avocats. Celui qui reçoit un document doit pouvoir savoir si l’analyse vient d’un juriste ou d’une machine. Le silence sur cette question expose non seulement à des sanctions disciplinaires, mais aussi à des conséquences concrètes pour le client.
Autrement dit, cette décision ne punit pas un avocat pour avoir utilisé une technologie, mais pour ne pas avoir dit qu’il l’avait fait, et pour avoir laissé d’autres en faire usage sans leur en donner les clés de lecture.
Me Philippe Ehrenström, avocat, LLM