L’avocat et le risque de l’intelligence artificielle cachée

A propos d’un « Order » du Juge Alison S. Bachus du 14 août 2025 dans Argelia Esther Mavy v. Commissioner of Social Security Administration, United States District Court for the District of Arizona (No. CV-25-00689-PHX-KML (ASB)) :

L’affaire naît d’un litige de sécurité sociale aux États-Unis. La demanderesse, représentée par une avocate admise dans le district fédéral d’Arizona, avait introduit une action en février 2025. Comme c’est l’usage, un mémoire introductif fut déposé pour défendre la position de la cliente. L’administration de la sécurité sociale a répondu, mais aucune réplique n’a été déposée.

C’est lors de l’examen du premier mémoire de la demanderesse que la cour a constaté un problème d’une ampleur inhabituelle. En effet, la grande majorité des références jurisprudentielles citées dans ce mémoire étaient soit inexistantes, soit erronées, soit tronquées ou présentées de manière trompeuse. Certaines semblaient avoir toutes les caractéristiques de ce que l’on appelle des « hallucinations » générées par des outils d’intelligence artificielle, c’est-à-dire des décisions inventées de toutes pièces mais rédigées avec l’apparence du réel : noms de parties plausibles, juridictions valables, dates crédibles.

Face à ce constat, la cour a ordonné à l’avocate de s’expliquer. Celle-ci a répondu qu’elle prenait l’entière responsabilité du mémoire, tout en expliquant le fonctionnement interne de son cabinet. Elle a décrit une chaîne de préparation des écritures en quatre étapes : une sélection préalable des affaires, une délégation de la rédaction à un avocat externe, une révision par un avocat superviseur au sein du cabinet, puis enfin une relecture personnelle avant signature. Elle a ajouté qu’elle s’était fiée au professionnalisme de la rédactrice externe, qu’elle avait en outre transmis à cette dernière une note officielle émanant d’un tribunal fédéral rappelant la vigilance requise face à l’usage de l’IA et la nécessité de vérifier les citations, et que la rédactrice avait accusé réception de cet avertissement. Malgré cela, le mémoire déposé contenait de très nombreux passages problématiques.

Dans sa réponse, l’avocate a insisté sur le fait qu’elle n’avait jamais eu l’intention de tromper le tribunal et qu’elle avait depuis lors rompu toute relation contractuelle avec la rédactrice externe. Elle a proposé de corriger le mémoire, de déposer une version amendée et de mettre en place de nouvelles procédures internes. Mais elle a aussi demandé à la cour de ne pas la sanctionner, ni de révoquer son admission, en invoquant l’importance de son cabinet pour l’accès à la justice des assurés sociaux à travers le pays.

Le tribunal a replacé l’affaire dans le cadre de la règle 11 des Federal Rules of Civil Procedure.

Cette règle impose à tout avocat signataire d’un acte de procédure de certifier qu’à sa connaissance, après enquête raisonnable, les arguments avancés sont fondés en droit. La jurisprudence américaine a souligné que cette obligation est personnelle et non délégable : l’avocat qui signe doit avoir vérifié lui-même que ce qu’il avance est juridiquement défendable. Il ne peut s’abriter derrière le travail d’un subordonné, d’un associé ou d’un prestataire externe. Ce point est fondamental, car il met en lumière le risque caché d’un usage incontrôlé de l’IA : l’avocat qui signe un document généré, même partiellement, par une machine, reste entièrement responsable de son contenu.

Le juge a procédé à une analyse minutieuse du mémoire en question. Dix-neuf citations y figuraient. À peine cinq à sept pouvaient être considérées comme exactes et pertinentes. Les autres étaient inexactes, sorties de leur contexte, attribuées à la mauvaise juridiction, voire totalement inventées. Trois décisions citées n’existaient tout simplement pas, alors même qu’elles étaient attribuées à des juges fédéraux bien réels. Ce procédé est grave, car il associe faussement le nom d’un magistrat à une opinion fictive, ce qui risque de nuire à la réputation de la justice et de semer la confusion.

L’avocate n’a pas reconnu expressément avoir eu recours à un outil d’intelligence artificielle, mais son propre tableau correctif qualifie certaines références de « probablement fabriquées par l’IA ». La cour a estimé que peu importait, au fond, de savoir si le recours à l’IA était avéré. Le problème réside dans le fait que des décisions inexistantes ou mal citées ont été présentées comme vraies au tribunal. C’est là une fausse déclaration de droit, peu importe que l’origine de l’erreur soit humaine ou algorithmique.

Le juge a rappelé que plusieurs cours fédérales avaient déjà été confrontées à ce type de problème et avaient dégagé une ligne claire : citer un arrêt inexistant ou déformer son contenu constitue une violation de la règle 11, indépendamment de la bonne ou mauvaise foi de l’avocat. L’obligation est objective et repose sur une vérification raisonnable. Or, en l’espèce, la vérification n’avait pas eu lieu. L’avocate avait délégué et signé sans contrôler. Cette omission équivaut à une violation manifeste de son devoir procédural.

S’agissant des sanctions, le juge a noté que la règle 11 permet une grande latitude, à condition que la mesure soit proportionnée et vise à prévenir la répétition du comportement. La jurisprudence montre une gradation : amendes, obligations de suivre des formations, interdiction temporaire, transmission au barreau, voire radiation. Dans certains cas récents, la sévérité a été renforcée parce que les sanctions plus légères ne suffisaient pas à endiguer le phénomène. La cour d’appel fédérale a même déjà frappé d’irrecevabilité un mémoire truffé de références fictives, en considérant que le reliquat valide n’était d’aucune utilité.

Dans cette affaire, le juge a retenu plusieurs éléments aggravants. D’abord, l’ampleur du problème : ce n’était pas une citation isolée, mais la majorité des références. Ensuite, la conscience préalable du risque : l’avocate avait elle-même diffusé à ses collaborateurs l’avertissement d’un autre tribunal sur l’usage de l’IA. Malgré cela, elle n’avait pris aucune mesure pour vérifier elle-même la conformité du mémoire. De plus, le dépôt de ce mémoire a désorganisé le cours normal de la procédure et obligé le tribunal à consacrer un temps précieux à une enquête disciplinaire au lieu d’examiner le fond du litige. Enfin, le fait d’avoir attribué des arrêts fictifs à des juges réels est particulièrement grave pour l’intégrité du système judiciaire.

Certes, l’avocate avait exprimé des regrets et proposé de corriger ses pratiques. Mais le juge a estimé que de simples excuses ne suffisaient pas, et que le dépôt d’un mémoire corrigé ne pouvait effacer le tort causé, ni restaurer le temps perdu, ni compenser le risque d’atteinte à la confiance du public. Laisser passer un tel incident reviendrait à encourager un usage laxiste de l’IA : les avocats pourraient se dire que, s’ils tombent, il leur suffira de corriger ensuite. Or, la leçon doit être claire : signer un écrit sans l’avoir vérifié engage personnellement et immédiatement la responsabilité de l’avocat.

En conséquence, la cour a prononcé un ensemble de sanctions. Le statut pro hac vice (admission pour la procédure dans ce ressort) de l’avocate a été révoqué et elle a été retirée du dossier. Le mémoire introductif a été écarté du dossier comme frappé de nullité. La demanderesse a été informée de la situation et a reçu un délai pour désigner un nouvel avocat ou se défendre seule. L’avocate sanctionnée a été obligée d’écrire personnellement aux trois juges auxquels elle avait faussement attribué des arrêts inexistants, pour les en informer et leur présenter la décision. Elle a été tenue également de notifier la présente ordonnance à tous les juges devant lesquels elle plaide dans d’autres affaires à travers le pays, afin de prévenir d’éventuelles irrégularités similaires. Enfin, le tribunal a décidé de transmettre le dossier au barreau de l’État de Washington, où l’avocate est inscrite, afin que l’autorité disciplinaire statue sur d’éventuelles conséquences supplémentaires.

En guise de note finale, le juge a souligné que l’affaire illustre de manière criante les risques cachés que recèle l’usage de l’IA par les avocats. L’outil peut générer du contenu apparemment crédible mais juridiquement faux, et si l’avocat signe sans vérifier, il se rend coupable de présenter de fausses affirmations de droit au tribunal. Ce danger est d’autant plus grand que l’IA est désormais banalisée et facilement accessible. La tentation est réelle de gagner du temps, mais elle ne dispense en rien du devoir de contrôle. Le juge a insisté : l’utilisation responsable de l’IA n’est pas interdite, mais elle impose un double devoir de vigilance et de vérification. Ne pas s’assurer de la fiabilité des citations, c’est abdiquer sa fonction d’avocat et contribuer à la perte de confiance dans la justice.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire