Après Thaler, les vraies questions du copyright face à l’IA

Le billet de blog d’Aaron Moss, Thaler Is Dead. Now for the AI Copyright Questions That Actually Matter, 8 mars 2026 (https://copyrightlately.com/thaler-is-dead-ai-copyright-questions/) revient sur l’affaire Thaler v Perlmutter, que nous avions évoquée aussi ici : https://droitdutravailensuisse.com/2026/03/06/pas-dauteur-humain-pas-de-copyright-encore-thaler-v-perlmutter/.

Aaron Moss soutient d’abord qu’une grande partie des commentaires publiés après le refus de la Cour suprême des États-Unis d’examiner l’affaire Thaler v. Perlmutter ont mal présenté la portée de cet épisode. L’auteur explique qu’il ne s’agit pas d’un arrêt de la Cour suprême sur le fond. La Cour a seulement refusé de se saisir du dossier, ce qui laisse en place la décision de la cour d’appel fédérale du District of Columbia rendue en mars 2025, sans créer pour autant une nouvelle règle générale par la seule force de ce refus. Autrement dit, la Cour suprême n’a pas dit que toute œuvre générée par intelligence artificielle est exclue du copyright; elle a simplement laissé subsister une décision antérieure, dans un dossier construit de manière volontairement extrême.

L’auteur insiste ensuite sur le fait que l’affaire Thaler était un mauvais véhicule pour répondre aux vraies questions. Stephen Thaler avait organisé son dossier de façon à poser la question la plus simple possible : il avait désigné son système d’IA comme unique auteur de l’image, avait nié toute contribution créative humaine, puis avait malgré cela demandé un enregistrement du copyright. Dans une telle configuration, l’échec était presque inévitable. La décision laissée en place par le refus de la Cour suprême est donc étroite: elle affirme que le droit d’auteur américain suppose un auteur humain, mais elle précise aussi que cette exigence n’exclut pas automatiquement les œuvres réalisées avec l’aide de l’IA. Ce qui est exclu, c’est l’idée qu’une machine puisse elle-même être auteur. Ce que l’arrêt ne tranche pas, et que le billet veut remettre au centre, ce sont les cas intermédiaires, ceux où l’être humain et l’outil interviennent ensemble.

À partir de là, le billet expose quatre questions qui, selon l’auteur, sont désormais les seules qui comptent vraiment.

La première porte sur le degré de participation humaine nécessaire pour qu’il y ait œuvre protégeable. L’auteur rappelle que l’Office américain du copyright a déjà essayé de tracer une ligne. D’un côté, certains usages de l’IA ne font pas perdre la protection: employer l’IA comme simple outil d’assistance, par exemple pour corriger un texte, améliorer la netteté d’une image ou ajuster des couleurs, ne remet pas en cause la protection de l’ensemble. De même, lorsqu’une œuvre plus vaste comprend certains éléments générés par IA, les parties humaines peuvent rester protégées, même si les éléments purement générés doivent être exclus de la revendication. Le billet cite à ce propos la décision Zarya of the Dawn: dans cette bande dessinée, les images obtenues avec Midjourney n’ont pas été reconnues comme protégeables, mais le texte rédigé par l’humain ainsi que le choix et l’agencement des éléments ont été admis comme relevant d’une création humaine. Les visuels reproduits dans le document illustrent précisément cette idée en montrant, aux pages 3 et 4, d’un côté l’œuvre de Thaler, présentée comme non appropriable, et de l’autre la couverture et des planches de Zarya of the Dawn, pour lesquelles seule une partie du résultat a été jugée protégeable.

L’autre extrémité de la ligne, selon l’Office, est celle du simple prompt. Le billet explique que, pour l’instant, l’Office considère que la seule rédaction de prompts ne donne pas à l’utilisateur un contrôle suffisant sur la forme expressive finale. Dans cette vision, l’utilisateur ne fait qu’indiquer une direction générale, un peu comme un client donnant des instructions à un prestataire, sans fixer lui-même les choix expressifs concrets qui se retrouvent dans l’image finale.

Le billet présente ensuite l’affaire Allen v. Perlmutter comme le premier véritable test de cette thèse. Jason Allen conteste le refus d’enregistrer l’image Théâtre D’opéra Spatial, obtenue avec Midjourney et primée dans une foire d’État au Colorado. L’auteur détaille les faits invoqués par Allen: au moins 624 prompts, l’usage des fonctions de variation et d’agrandissement de Midjourney, puis des retouches dans Photoshop avant un nouvel agrandissement. L’idée est claire: on n’est plus face à quelqu’un qui entre une consigne sommaire et accepte le premier résultat venu, mais face à un processus long, itératif et orienté par une intention créative. Pourtant, malgré cet effort, l’Office soutient que les éléments expressifs fondamentaux de l’image proviennent toujours de Midjourney et non d’Allen. Les pages 4 et 5 du fichier appuient ce point en montrant l’image concernée et en rappelant le nombre très élevé de prompts utilisés.

Le cœur du désaccord apparaît alors. L’Office estime que le fait de multiplier les prompts revient surtout à relancer la machine jusqu’à trouver un résultat satisfaisant, sans pour autant contrôler réellement l’expression finale. Dans le billet, cette idée est décrite comme une logique de “re-rolling”, c’est-à-dire de nouveaux tirages successifs. Allen répond à l’inverse que ce raisonnement mélange deux questions distinctes: d’une part, la distinction classique entre l’idée et son expression, qui limite l’étendue de la protection; d’autre part, la question préalable de savoir qui a effectivement façonné l’expression retenue. Selon lui, lorsqu’il a précisé le genre, la tonalité, les couleurs, la composition et le style à travers des centaines d’itérations, il n’a pas fourni de simples idées abstraites, mais a pris des décisions concrètes qui se reflètent dans l’image finale. Le billet montre bien que, pour l’auteur, le vrai litige est là: le prompting doit-il être vu comme une véritable activité d’auteur, ou seulement comme une activité de sélection et de tri parmi des propositions de la machine? Thaler posait la question la plus simple, celle où il n’y avait aucune intervention humaine revendiquée. Allen pose la question difficile, celle où l’intervention humaine est abondante, mais peut-être encore insuffisante au regard du droit actuel.

La deuxième grande question porte sur la preuve. Le billet souligne que, dès lors qu’on accepte en principe qu’une œuvre assistée par IA puisse, dans certains cas, être protégée, tout le système dépend de la capacité à distinguer ce que l’humain a fait de ce que la machine a produit. En théorie, cette distinction paraît simple; en pratique, elle est difficile à établir. Au stade de l’enregistrement, les exigences de l’Office restent relativement modestes: lorsqu’une œuvre contient plus qu’une part négligeable de contenu généré par IA, le déposant doit l’indiquer, exclure ce contenu de la revendication, et décrire brièvement sa propre contribution humaine. Mais l’auteur estime que ce système crée une incitation malsaine. La personne honnête qui révèle l’intervention de l’IA constitue un dossier public qui pourra plus tard être utilisé contre elle pour contester la portée de son droit. Si, plusieurs années après, un litige survient, elle n’aura peut-être plus les fichiers intermédiaires, les historiques de prompts, les versions successives ou les couches de retouche nécessaires pour démontrer précisément la part de création humaine. À l’inverse, celui qui ne déclare rien laisse beaucoup moins de traces. Certes, le droit prévoit des moyens de réagir en cas de déclaration inexacte ou frauduleuse, mais ces moyens restent pour l’essentiel réactifs: ils ne fonctionnent que si l’omission est découverte. Le billet en déduit que le système actuel récompense moins la précision que le silence.

L’auteur ajoute que le problème ne se limite pas à la phase administrative. Même si l’Office accepte une demande, rien ne dit qu’un tribunal se satisfera plus tard d’une brève description figurant sur le formulaire d’enregistrement. À ce jour, aucun standard probatoire clair n’a encore été formulé par les juridictions américaines pour déterminer ce qu’il faut produire afin de prouver une paternité humaine suffisante dans une œuvre assistée par IA. C’est pourquoi le billet formule une recommandation pratique: quiconque crée des contenus commercialement importants avec de tels outils devrait documenter son processus beaucoup plus soigneusement qu’il ne le ferait d’ordinaire, en conservant les prompts, les versions intermédiaires, les comparaisons avant-après et des notes sur l’intention poursuivie et les modifications apportées au fil du travail. Le raisonnement est simple: si la frontière juridique dépend de faits très fins sur le mode de création, alors il faut être capable de reconstituer ces faits plus tard.

La troisième question examinée par le billet concerne le marché des licences. L’auteur observe qu’en pratique, pendant que les juristes discutent de la notion d’auteur, les acteurs économiques commercialisent déjà massivement des productions générées par IA: éléments graphiques, musiques, code, environnements de jeux, textes publicitaires, présentations, scénarimages, montages préliminaires. Tout cela circule avec des clauses de droits, comme si l’existence d’un copyright sur ces sorties allait de soi. Or le billet soutient que cette hypothèse est souvent non vérifiée. L’exemple choisi vient du monde du logiciel: un mainteneur d’une bibliothèque Python très utilisée a indiqué avoir recodé l’outil “from scratch” avec l’aide d’un agent de codage fondé sur l’IA, puis a changé la licence du projet dans un sens plus permissif. Le créateur initial a contesté cette présentation en soutenant que la connaissance approfondie du code d’origine empêchait de parler d’une réécriture indépendante et que la licence d’origine continuait donc à s’appliquer. Une vive controverse s’est ensuivie, mais, selon l’auteur, presque personne n’a posé la question préalable: la nouvelle version générée avec l’aide de l’IA est-elle elle-même protégeable? Si elle ne l’est pas, une partie du débat sur la licence risque de manquer sa cible. Les pages 7 et 8 du document présentent explicitement cet exemple et insistent sur ce décalage entre les discussions concrètes du marché et la fragilité éventuelle de leur base juridique.

L’idée n’est pas, pour l’auteur, que toute transaction portant sur un contenu généré par IA serait dépourvue de valeur. Il reconnaît qu’un modèle économique peut reposer sur le contrat, sur le contrôle d’accès, sur la curation, la personnalisation, le support ou simplement la commodité. On peut donc vendre de l’accès et des services même en l’absence de copyright solide sur le contenu lui-même. Mais le billet insiste sur la différence fondamentale entre le contrat et le copyright. Le contrat n’oblige que les parties qui l’ont accepté. Le copyright, lui, vaut à l’égard de tous. Dès lors, le vrai problème apparaîtra lorsqu’une entreprise tentera de faire valoir un droit sur un contenu généré par IA contre un tiers qui n’a signé aucun contrat. C’est à ce moment que l’éventuel vide de protection deviendra déterminant. Le raisonnement de l’auteur est donc le suivant: le marché fonctionne aujourd’hui comme si la question était déjà résolue, alors qu’en réalité il repose souvent sur une supposition encore incertaine.

La quatrième et dernière question vise un malentendu inverse. Selon l’auteur, beaucoup de commentateurs ont cru qu’une œuvre non protégeable parce que trop liée à la machine évoluerait dans une sorte de zone libre de copyright. Le billet répond nettement que c’est faux. Une sortie d’IA peut très bien ne pas être appropriable par son utilisateur et, en même temps, porter atteinte au droit d’auteur d’un tiers. En droit américain, l’œuvre contrefaisante n’a pas besoin d’être elle-même protégeable. Une simple photocopie, une transcription manuscrite ou un enregistrement pirate peuvent déjà constituer des atteintes. De la même manière, une production d’IA qui reproduit de manière trop proche une expression protégée peut être contrefaisante, même si personne ne peut revendiquer un copyright propre sur cette production. Le billet insiste sur ce point parce qu’il révèle une asymétrie importante: l’absence de droit exclusif sur sa propre sortie n’immunise nullement contre le risque de violer le droit d’autrui.

L’auteur ajoute que cette difficulté n’est plus théorique. Les tribunaux commencent déjà à examiner des litiges portant sur des sorties générées par IA, notamment lorsque ces sorties prennent la forme de résumés d’articles de presse ou de résumés narratifs d’œuvres littéraires. Le billet note que les premiers résultats sont hésitants et peu cohérents. Dans une décision d’avril 2025 dans l’affaire New York Times v. Microsoft, le juge Sidney Stein a rejeté des griefs fondés sur des résumés en puces d’articles journalistiques, estimant en substance qu’ils n’étaient pas suffisamment similaires. Quelques semaines plus tard, le même juge a cependant laissé prospérer des demandes d’auteurs de fiction fondées sur un résumé narratif généré par ChatGPT, au motif qu’il pouvait reprendre de manière plausible le ton d’ensemble et la sensation générale de l’œuvre originale. Le billet n’entre pas dans tous les détails techniques de ces décisions, mais il s’en sert pour illustrer l’instabilité actuelle du droit. Ce qui ressort est que les tribunaux tâtonnent encore pour savoir à partir de quel degré de reprise une sortie d’IA bascule dans la contrefaçon.

Enfin, le billet relève que, lorsqu’il y a effectivement atteinte, la question des responsables devient très vite complexe. Le développeur du modèle a conçu et entretenu le système, la plateforme l’a mis à disposition, l’utilisateur final a demandé le résultat litigieux. La responsabilité pourrait donc peser sur l’un, sur l’autre, ou sur plusieurs à la fois. Or, là encore, aucun cadre stabilisé n’existe encore.

L’auteur conclut ainsi que le véritable héritage de Thaler n’est pas de fermer le débat, mais au contraire de déplacer l’attention vers une zone beaucoup plus difficile, plus grise et plus importante en pratique. L’affaire Thaler élimine seulement le cas extrême où l’on prétend qu’une machine seule est auteur. Tout le reste demeure ouvert: combien d’intervention humaine suffit, comment la prouver, quels droits on peut réellement concéder sur des contenus produits avec l’IA, et comment traiter le risque de contrefaçon lorsque ces contenus reprennent trop fidèlement des œuvres antérieures. La thèse générale du billet est donc que nous sommes entrés dans une phase moins spectaculaire mais plus décisive: non plus celle des slogans sur “l’IA et le copyright”, mais celle des questions de frontière, de preuve, de marché et de responsabilité, qui vont structurer le contentieux à venir.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en protection des données – Entreprise et administration

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article a été publié dans droit d'auteur, Droit US, intelligence artificielle, Propriété intellectuelle. Ajoutez ce permalien à vos favoris.

Laisser un commentaire