L’avocat doit-il révéler au juge l’utilisation qu’il fait de l’intelligence artificielle ?

Le « Standing Order Regarding Use of Artificial Intelligence » édicté le 15 mai 2025 par le juge David L. Horan (United States District Court, Northern District of Texas, Dallas Division) dans l’affaire Cedric Willis v/ U.S. Bank national Associations (No. 3 : 25-cv-516-BN) traite de la révélation, par l’avocat, de son usage de l’intelligence artificielle en procédure.

Contexte général

Le juge Horan rappelle d’abord que la recherche juridique a connu une évolution progressive, des recueils imprimés jusqu’aux bases de données numériques comme Lexis ou Westlaw. Aujourd’hui, la transition vers l’IA générative constitue une nouvelle étape. Si l’IA peut améliorer l’accès au droit et faciliter le travail des avocats comme des justiciables plaidant en personne, elle n’est pas sans risques. L’enthousiasme pour ces outils doit être tempéré par une vigilance accrue, en particulier face aux dangers des hallucinations de l’IA, soit la production de contenu fictif mais présenté de manière crédible.

Portée de la décision

La décision se présente sous forme d’un « standing order », c’est-à-dire une ordonnance générale applicable à toutes les parties au litige. Elle ne constitue pas une interdiction d’utiliser l’IA, mais impose des obligations précises en matière de transparence et de vérification. Le juge souligne qu’une utilisation prudente et intelligente de l’IA peut être bénéfique pour la justice, notamment pour les parties non représentées et plaidant en personnes.

Obligation de divulgation

L’élément central de la décision – et le plus pertinent pour les praticiens du droit – est l’obligation de divulguer toute utilisation d’intelligence artificielle générative dans la rédaction des écritures. Cette obligation découle directement de la règle locale 7.2(f) (Local Civil Rule) du district :

Si une partie dépose un mémoire partiellement ou totalement rédigé à l’aide d’IA générative, elle doit le signaler dès la première page du document, sous la mention explicite « Use of Generative Artificial Intelligence ».

Le juge peut aussi exiger que la partie indique précisément quelles sections ont été rédigées à l’aide d’IA.

À défaut de mention, la partie certifie implicitement qu’aucune portion du document n’a été produite à l’aide d’un tel outil.

La définition retenue de l’IA générative inclut tout programme informatique capable de produire du texte ou des images en réponse à une requête, comme ChatGPT ou d’autres modèles similaires.

Règle 11 Federal Rules of Civil Procedure

L’obligation de divulgation s’inscrit dans le cadre plus large du respect de la règle 11 des Federal Rules of Civil Procedure. Cette règle impose à tout avocat ou justiciable de certifier que les contenus juridiques avancés dans une procédure sont fondés sur le droit existant et que les faits évoqués sont soutenus par des éléments probants. Ce devoir de diligence s’applique de manière identique aux avocats et aux justiciables agissant en personne.

Le juge rappelle que soumettre un mémoire qui cite des jurisprudences inventées par une IA, sans avoir vérifié leur validité, constitue une violation de la règle 11. Ce manquement expose les parties à des sanctions, parfois sévères, allant jusqu’à l’annulation des demandes ou des amendes.

Dangers liés à l’IA générative

Le juge consacre une large partie de sa décision à l’explication des « hallucinations » des IA génératives. Il s’agit de cas où l’IA crée de toutes pièces des décisions judiciaires inexistantes, avec un niveau de détail tel qu’elles paraissent crédibles à un œil non averti. Plusieurs affaires récentes ont vu des avocats ou des justiciables déposer des mémoires contenant des citations fictives, sans avoir vérifié leur existence. Ces pratiques, même si elles découlent d’une utilisation imprudente et non malveillante de l’IA, sont considérées comme abusives.

Le juge insiste sur le fait que l’outil n’est pas responsable : c’est à l’utilisateur – l’avocat ou la partie – de faire preuve d’intelligence humaine dans l’usage de l’IA. La tentation de produire rapidement des documents juridiques est compréhensible, mais elle fait peser un risque déséquilibré sur le système judiciaire, qui doit ensuite consacrer un temps précieux à vérifier la véracité des sources invoquées.

Conséquences pratiques

D’un point de vue procédural, les mémoires qui contiennent des références juridiques erronées ou fictives peuvent être rejetés. La partie fautive peut être sanctionnée. Le juge cite plusieurs affaires dans lesquelles des sanctions ont été prononcées à l’encontre de parties pour avoir cité de fausses décisions judiciaires générées par IA.

Toutefois, la décision fait preuve de nuance : le juge reconnaît les limitations des parties non représentées, notamment en termes d’accès à des bases juridiques payantes. Ainsi, l’absence de vérification peut être comprise dans certains cas, mais elle ne sera pas excusée à répétition.

Enjeux pour les avocats suisses

Même si cette ordonnance provient d’un tribunal américain, elle résonne avec les défis que rencontrent les avocats suisses face à l’essor des outils d’IA dans la pratique juridique. Elle illustre l’attente d’une transparence complète sur le recours à l’IA, ainsi qu’un devoir de contrôle rigoureux quant à l’exactitude des contenus produits.

En Suisse, la législation ne prévoit pas encore une obligation explicite de déclarer l’usage de l’IA dans les écritures judiciaires. Cependant, la logique sous-jacente de la règle 11 – à savoir le devoir de diligence, la loyauté envers le tribunal et la véracité des faits et du droit allégués – est pleinement transposable à notre système.

La décision du juge Horan ne prohibe pas l’usage de l’IA dans les procédures judiciaires. Elle impose par contre une transparence obligatoire et un contrôle humain rigoureux. Pour les avocats suisses, cela souligne l’importance de ne pas déléguer leur jugement professionnel à des outils automatisés, aussi performants soient-ils. L’intelligence artificielle ne remplace pas l’intelligence humaine ; elle la complète, à condition d’en connaître les limites et d’en assumer l’usage.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans Avocats (règles professionnelles), intelligence artificielle, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire