L’utilisation de l’IA générative par le juge : exemple pratique

Xavier Rodriguez, juge fédéral (U.S. District Judge) au Texas, explique dans une publication récente (https://judicature.duke.edu/articles/judging-ai-generative-ai-courts/) comment des outils d’IA générative peuvent aider un juge dans des dossiers volumineux sans affaiblir l’exigence de justice et de rigueur. Il part d’une expérience concrète : un procès “bench trial” (décidé par le juge sans jury) particulièrement lourd, La Union Del Pueblo Entero v. Abbott, portant sur de nombreuses dispositions d’une loi électorale texane de 2021 (S.B. 1). Le dossier comprenait environ 80 témoins, près de 1 000 pièces et plus de 5 000 pages de transcription. Cette masse met en évidence un problème très simple mais décisif : retrouver rapidement, puis synthétiser, les éléments utiles au moment de rédiger des constatations de faits et des conclusions.

Premier apport décrit : la recherche et la localisation de documents. Les systèmes judiciaires de dépôt électronique permettent des recherches textuelles, mais avec des limites pratiques : recherches par mots-clés souvent trop larges ou trop étroites, documents non “lisibles” car non convertis correctement, impossibilité de restreindre finement la recherche à certains sous-ensembles, difficulté à exploiter des documents reçus mais pas encore déposés, et résultats inutilisables quand un terme renvoie à “tout le dossier”. Pour dépasser ces limites, la chambre du juge a utilisé une plateforme d’e-discovery (Merlin) après validation par le service informatique du tribunal sur les aspects de cybersécurité. Un corpus d’environ un millier de documents (transcriptions, pièces admises, écritures, projets de constatations, ordonnances antérieures) a été chargé sur un espace sécurisé créé pour le projet. L’outil a appliqué une reconnaissance de caractères et a offert une recherche combinant mots-clés et recherche “algorithmique”, permettant de retrouver plus vite des passages pertinents sans requêtes complexes. L’auteur souligne toutefois une précaution centrale pour tout usage judiciaire ou avocat : ne pas charger de données confidentielles, protégées par le secret professionnel, ou sensibles (santé, finances, etc.) sans vérifier précisément les garanties du prestataire, notamment l’absence de réutilisation des données non publiques pour entraîner le modèle et la solidité des mesures de sécurité.

Deuxième apport : la synthèse de textes, en particulier la synthèse de dépositions et de transcriptions. L’auteur rappelle que les résumés de témoignages sont une pratique courante, mais coûteuse en temps et en budget, et parfois peu flexibles : selon qu’ils sont structurés par témoin, par date ou par thème, ils peuvent être difficiles à exploiter pour une question précise, et ils obligent souvent à un va-et-vient répétitif entre résumé et transcription. Il décrit l’intérêt d’approches où le système ne “devine” pas librement mais répond à partir d’un ensemble fermé de documents, via une méthode souvent appelée “recherche puis rédaction” (retrieval-augmented generation) : le système commence par retrouver les passages les plus pertinents dans le corpus défini, puis génère une réponse en s’appuyant sur ces passages. L’idée est de réduire le risque d’erreur en forçant l’outil à se fonder sur le dossier. Dans son test, l’auteur compare un résumé produit par un stagiaire à une réponse générée par Merlin à partir d’une question simple sur la procédure de vote “curbside” au Texas. L’outil fournit en quelques secondes une synthèse transversale qui combine plusieurs sources (dépositions et témoignages de divers témoins) et ajoute des références vers les passages correspondants. Le résumé humain est plus resserré et directement orienté vers l’usage rédactionnel, tandis que l’IA donne une vue plus large et contextualisée. La conclusion est nuancée : l’IA peut accélérer et faciliter la première exploration et l’identification des éléments du dossier, mais l’humain doit contrôler l’exactitude et décider du niveau de détail utile, notamment si le texte doit être repris tel quel dans une décision.

Troisième axe : la capacité de l’IA à produire un “premier jet” de constatations de faits (et, en creux, ses limites pour une décision complète). L’auteur affirme qu’il n’utilise pas, à ce stade, un outil d’IA générative pour rédiger des ordonnances ou des constatations déposées au dossier ; ses essais ont été réalisés après publication, afin d’éviter une influence sur la décision. Il insiste aussi sur des risques cognitifs spécifiques : l’“ancrage” (tendance à se laisser guider par une première proposition), la confiance excessive dans une réponse d’outil (“automation bias”) et le biais de confirmation (accepter plus facilement ce qui conforte une intuition). L’IA peut être partiellement ou totalement erronée, et même une réponse plausible peut orienter la réflexion de manière indue. Dans une première expérience, il demande à l’outil un texte mêlant faits et droit sur une théorie précise (atteinte à la liberté d’expression par une restriction de certaines activités de démarchage autour du vote par correspondance). Le résultat est décevant : réponse trop large (elle traite d’autres dispositions et d’autres parties), et analyse souvent superficielle, notamment sur la qualité pour agir (standing) où l’outil produit des formules générales plutôt que d’identifier précisément quels demandeurs sont concernés par cette restriction. L’auteur en tire une leçon méthodologique : les sorties dépendent fortement de la qualité des entrées et des consignes, et un juge doit déjà comprendre les enjeux factuels et juridiques pour formuler des requêtes pertinentes, évaluer les limites de l’outil et contrôler la pertinence et l’exactitude du résultat.

Il modifie alors son approche : plutôt que de demander une analyse juridique, il cible des constatations de faits détaillées, en donnant des instructions structurées très précises (définition de la disposition contestée, historique procédural, description des parties et de leurs compétences d’exécution, exemples de difficultés d’interprétation de termes vagues comme “présence physique” ou “compensation”, et effets concrets sur les activités de terrain et la liberté d’expression), avec exigence de références à la preuve. Cette fois, l’outil produit un document d’une dizaine de pages nettement plus utile, avec des exemples concrets d’activités réduites ou abandonnées par des organisations (annulation d’événements, bascule vers des formats virtuels, difficultés de recrutement de bénévoles, réduction de programmes d’assistance aux électeurs), et des citations de témoignages illustrant l’incertitude sur la portée de la règle (p. ex. la question de savoir si de petites aides matérielles pourraient être qualifiées de “compensation”). L’auteur souligne que cette amélioration provient d’une “itération” : affiner progressivement la demande pour l’aligner sur ce que le dossier contient réellement. Il explique aussi pourquoi l’outil peine lorsque la question suppose des inférences juridiques non explicitement formulées dans la preuve : au procès, les questions aux témoins ne reprennent pas sans cesse la “théorie de responsabilité” en termes juridiques, et les témoins ne doivent pas donner de conclusions de droit ; il faut donc guider l’outil vers les faits pertinents.

Quatrième axe : l’usage de l’IA pour relire et contrôler les écritures et brouillons. L’auteur présente un autre outil, Clearbrief, également basé sur le chargement de sources dans un espace sécurisé, mais intégré à Microsoft Word. Cette intégration facilite l’extraction de passages du dossier vers un projet de texte, avec insertion de références, et permet aussi de générer des chronologies, des tableaux thématiques et des résumés de dépositions (sans fonctionner comme un “chat” fondé sur des invites). Clearbrief dispose en outre d’un accès à des ressources juridiques (via LexisNexis et le domaine public) et peut évaluer dans quelle mesure une phrase d’un mémoire ou d’un projet d’opinion est effectivement soutenue par l’autorité citée, ce qui aide au contrôle des citations et à la détection d’affirmations insuffisamment étayées. Dans la pratique décrite, ces fonctions servent à préparer des conférences de procédure, à vérifier la précision des mémoires et des références au dossier, et à relire/corriger les projets avant publication.

En conclusion, l’auteur défend une position pragmatique : les outils d’IA générative ne remplacent pas le juge et ne doivent pas servir de substitut à la décision judiciaire, mais ils peuvent réduire une part importante du travail mécanique et chronophage (retrouver, regrouper et résumer des éléments du dossier, produire des chronologies, faciliter le contrôle de cohérence et de citations). Il estime que la peur suscitée par des cas médiatisés de mauvais usages ne doit pas conduire à un refus global : des professionnels ont toujours pu produire des références erronées ou des résumés infidèles, avec ou sans IA, et refuser ces outils ne fait que rendre plus difficile la détection de ces erreurs. Il ajoute que le risque d’un usage non critique existe aussi sans IA (copier-coller d’écritures partisanes, recherche juridique insuffisante) et que la bonne réponse réside dans la responsabilité et le contrôle, pas dans l’interdiction générale. Il propose enfin une logique “à la carte” : certains outils conviennent mieux aux grands dossiers factuels (recherche et synthèse à grande échelle), d’autres au travail quotidien (préparation d’audiences, vérification de citations). L’état de l’art, au moment de ses tests, ne permet pas de produire de façon fiable des décisions finales, mais l’évolution est rapide et des solutions apparaissent, y compris des outils dédiés au travail des juges. Dans tous les cas, il n’y a pas de substitut au jugement humain, en particulier pour formuler les bonnes questions, vérifier les réponses et assumer la responsabilité de la décision.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans Droit US, intelligence artificielle, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire