Utiliser des preuves créées ou modifiées par l’intelligence artificielle en procédure?

A propos de l’utilisation en procédure de preuves fabriquées ou modifiées par l’intelligence artificielle:

La décision rendue par la Superior Court of California, comté d’Alameda, dans l’affaire Mendones c. Cushman & Wakefield du 9 septembre 2025 (No : 23CV028772) , illustre les risques que représente l’introduction de preuves falsifiées à l’aide d’outils d’intelligence artificielle générative dans une procédure civile. Il s’agit d’un « Order re Terminating Sanctions », autrement dit une décision de radiation définitive de la procédure en sanction de comportements jugés gravement attentatoires à l’intégrité du procès.

Le point de départ est une demande de jugement sommaire présentée par les demandeurs Ariel et Maridol Mendones en mars 2025. Pour appuyer leur requête, ils ont produit divers documents et enregistrements censés constituer des témoignages et des preuves matérielles. Or, très vite, le tribunal a nourri des soupçons sur l’authenticité d’un certain nombre de pièces. Plusieurs vidéos et enregistrements paraissaient artificiels, présentant les caractéristiques typiques des productions générées par des outils de type « deepfake ». Le juge a notamment relevé l’absence d’expressivité faciale, la cadence mécanique de la voix et le décalage entre le mouvement des lèvres et les paroles supposées prononcées.

Conscient de la gravité potentielle de la situation, le tribunal a pris l’initiative d’un contrôle approfondi. Une première audience de gestion de la cause a confirmé ces soupçons, notamment parce que l’une des parties a admis que certains témoins représentés dans les vidéos étaient en réalité décédés ou injoignables. Le tribunal a alors ordonné aux demandeurs de s’expliquer dans le cadre d’une procédure spécifique, un « order to show cause », visant à déterminer si des sanctions devaient être prononcées, y compris la possibilité de transmettre le dossier au procureur pour des poursuites pénales. Les demandeurs devaient répondre par déclaration sous serment à trois questions précises : préciser si des éléments avaient été créés au moyen de l’intelligence artificielle, indiquer si certaines images avaient été modifiées, et identifier les plateformes utilisées pour capter certains messages. Ils devaient également fournir les métadonnées complètes des fichiers contestés, ainsi que les certificats liés aux signatures électroniques.

La base juridique de cette intervention se trouve dans le Code of Civil Procedure californien, section 128.7. Celle-ci impose à toute partie ou avocat déposant un acte ou une pièce de garantir, après vérification raisonnable, que les prétentions ou les éléments factuels avancés reposent sur un fondement réel. En cas de violation, le tribunal peut infliger des sanctions appropriées, celles-ci devant rester proportionnées et viser à prévenir la répétition de tels comportements.

Après examen des explications fournies et des métadonnées produites, le tribunal est parvenu à la conclusion que plusieurs pièces étaient bel et bien fabriquées. Les vidéos désignées comme exhibits 6A et 6C constituaient des deepfakes, c’est-à-dire des créations générées artificiellement et non pas des enregistrements d’interactions humaines réelles. Le juge a procédé à une comparaison minutieuse avec une vidéo authentique du témoin concerné, démontrant les différences de ton, de rythme, de langage corporel et de synchronisation labiale. Les incohérences observées correspondaient typiquement aux artefacts de génération automatisée.

Une autre pièce, l’exhibit 7, était une série de photographies censées provenir d’une caméra domestique de type Ring. Le tribunal a constaté que l’individu représenté avait été inséré artificiellement dans l’image, en couleur, sur un arrière-plan resté en noir et blanc. Cette superposition illustrait une manipulation manifeste. De même, les exhibits 35 et 40, présentés comme des conversations sur Instagram et sur un chat de groupe Zoom, révélaient des anomalies de mise en page, de typographie et de cohérence qui montraient qu’ils avaient été altérés ou générés.

Quant aux métadonnées transmises, elles se sont avérées incohérentes et parfois absurdes. Certaines comportaient des informations qui n’apparaissent jamais dans des métadonnées authentiques, comme des mentions de copyright ou des coordonnées GPS placées dans des champs inappropriés. Le juge en a déduit qu’il s’agissait de fabrications a posteriori. Les explications fournies par Maridol Mendones ont encore aggravé la suspicion : elle a affirmé que si les vidéos paraissaient artificielles, c’est parce qu’elles avaient été captées via un ancien modèle d’iPhone intégrant déjà des outils d’intelligence artificielle. Or, les données techniques sur les produits Apple ont permis de démontrer que cette explication était impossible, puisque la technologie invoquée n’existait pas au moment de la captation supposée.

À l’issue de cette instruction incidente, le tribunal a constaté une violation caractérisée de l’article 128.7 du Code of Civil Procedure. Les demandeurs avaient bel et bien soumis des preuves fabriquées, en connaissance de cause, pour influencer l’issue d’une demande de jugement sommaire. La question se posait alors de savoir quelle sanction adopter. Le juge a examiné tour à tour les différentes options offertes. Des sanctions pécuniaires, comme celles souvent prononcées en cas de citations fictives générées par des outils comme ChatGPT, ont été jugées insuffisantes dans ce contexte. L’utilisation de deepfakes est bien plus grave : elle mine directement la capacité du juge à apprécier les faits et menace la confiance du public dans le système judiciaire. De simples amendes n’auraient pas de valeur dissuasive proportionnée.

Le juge a également considéré la possibilité de renvoyer l’affaire au procureur pour poursuites pénales, que ce soit pour faux témoignage ou pour faux en écritures. Mais cette solution a été écartée comme trop sévère, entraînant des répercussions sociales lourdes pour les parties, et en même temps pas assez adaptée pour répondre à la problématique immédiate de l’intégrité du procès civil. De même, une sanction limitée à l’exclusion de certaines pièces ou à la constatation d’éléments de fait (« issue sanctions ») a été jugée inefficace. L’examen des preuves deepfake est trop chronophage et technique pour que cette mesure constitue une réelle protection contre la récidive.

En définitive, le tribunal a retenu la sanction la plus radicale : la radiation de la procédure avec préjudice, autrement dit un « terminating sanction ». La plainte des Mendones a été purement et simplement rayée du rôle, sans possibilité de réintroduire les mêmes prétentions. Le juge a motivé cette sévérité en insistant sur la nécessité de préserver la confiance dans le processus judiciaire et d’envoyer un message clair à l’ensemble des justiciables : la présentation de preuves générées par intelligence artificielle sans transparence ni authenticité ne sera pas tolérée. Il a également noté qu’il était impossible de distinguer clairement les responsabilités entre Ariel et Maridol Mendones, de sorte que les deux ont été sanctionnés de la même manière.

Cette affaire marque un jalon important dans la manière dont les juridictions américaines commencent à se confronter aux défis posés par l’intelligence artificielle générative. Jusque-là, les incidents médiatisés concernaient surtout des avocats citant de fausses décisions inventées par des logiciels. Ici, on passe à un stade supérieur, où des parties civiles tentent de bâtir tout un pan de leur argumentation sur des vidéos et documents falsifiés, rendus particulièrement convaincants grâce aux technologies de deepfake. La réponse judiciaire est claire : seule une sanction exemplaire permet de protéger l’intégrité du procès.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans Droit US, intelligence artificielle, Procédure, est tagué , , , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire