Le droit de ne pas utiliser Internet (I)

[Le thème est d’actualité : droit à la déconnection, méfiance devant les big techs, choix de vie alternatifs…. C’est dire l’intérêt du recueil d’articles de D. Kloza/E.Kuzelewska/E.Lievens/V.Verdoodt (éds.), The Right not to use the Internet, Londres New York 2025, qui vient de paraître et qui est en accès libre ici : https://www.taylorfrancis.com/reader/download/46308b34-c16f-4e19-b89e-f7694b08a9fd/book/pdf?context=ubx.

J’en extrait quelques réflexions résumées de l’intéressant article de Julien Rossi, Is there a right to be offline for no reason in France ? qui me semble bien poser les enjeux :]

1. Introduction

En France, l’usage d’Internet s’avère incontournable pour accomplir les démarches de la vie quotidienne, des plus triviales au plus vitales : inscription scolaire, démarches fiscales, rendez-vous médicaux, achat de titres de transport ou encore obtention de prestations sociales. Cette numérisation systématique, imposée par l’État, transforme profondément les modalités d’accès aux droits.

Malgré la persistance d’une fracture numérique — 8 % de la population française n’utilisait toujours pas Internet en 2022 — la pression sociale et administrative pour se conformer à l’usage des technologies en ligne ne cesse de croître.

La question se pose donc de savoir si, en l’état actuel du droit français et européen, il est possible d’inférer l’existence d’un droit à vivre hors ligne.

2. Premier fondement mobilisable : le droit à la non-discrimination

L’obligation de recourir aux démarches numériques a généré de nouvelles formes d’exclusion. Les populations les plus touchées sont notamment les personnes âgées, handicapées ou en situation de précarité sociale. En 2019, un prêtre malvoyant a ainsi été condamné à une amende pour avoir voyagé sans billet, ne pouvant utiliser la borne numérique inaccessible de la SNCF. Plus globalement, une étude de 2020 a révélé que près de 74 % des retraités français étaient dans l’incapacité de réaliser seuls des démarches administratives en ligne.

Sur le plan juridique, l’article 14 de la Convention européenne des droits de l’homme (CEDH) prohibe toute discrimination dans l’exercice des droits garantis, y compris en raison du handicap. La directive européenne 2016/2102 impose quant à elle aux États membres de rendre accessibles leurs services numériques publics.

En droit interne, la loi du 11 février 2005 sur l’égalité des droits et des chances a instauré une obligation d’accessibilité pour les services publics numériques. Pourtant, dans la pratique, l’accessibilité demeure largement déficiente : en 2024, le portail des étrangers en France n’était conforme qu’à 60 % aux standards requis, tandis que « Mon Espace Santé » restait partiellement conforme.

Dans deux décisions rendues en 2022 et 2024, le Conseil d’État a précisé les conditions permettant l’imposition de procédures numériques (3 juin 2022 (no 452798) et 17 janvier 2024 (no 466052). Le juge administratif a reconnu la possibilité pour l’administration de privilégier des démarches en ligne, à condition que soit garanti un accès effectif aux droits. Cette obligation implique la mise en place d’un accompagnement pour les personnes rencontrant des difficultés numériques et la mise à disposition d’une alternative hors ligne pour celles se trouvant, malgré cet accompagnement, dans l’impossibilité de recourir aux outils numériques.

Il est essentiel de souligner que le bénéfice de cette alternative est conditionné à la capacité de l’usager à prouver son impossibilité concrète d’utiliser la solution en ligne. Il ne s’agit donc pas d’un droit général ou automatique à être hors ligne : la charge de la preuve repose entièrement sur l’individu concerné.

3. Deuxième fondement : le droit à la vie privée et à la protection des données

Le droit à la vie privée bénéficie en France de plusieurs sources de protection : l’article 2 de la Déclaration des droits de l’homme et du citoyen de 1789, l’article 8 de la CEDH et l’article 8 de la Charte des droits fondamentaux de l’Union européenne. La protection des données personnelles est par ailleurs encadrée par le Règlement général sur la protection des données (RGPD) et par la loi Informatique et Libertés.

Le RGPD impose aux responsables de traitement des obligations strictes de minimisation des données, de proportionnalité et de limitation des finalités. En principe, tout traitement excessif ou injustifié de données peut être contesté par la personne concernée.

Dans la pratique, de nombreux dispositifs imposés par l’administration soulèvent des interrogations sur leur conformité. L’exemple de l’application Izly, imposée aux étudiants pour régler leurs repas universitaires et accusée de collecter des données de géolocalisation, est révélateur. De même, l’obligation d’utiliser FranceConnect+, uniquement disponible via des applications sur Android ou iOS — systèmes eux-mêmes critiqués pour leurs pratiques en matière de protection des données — pose question.

Théoriquement, les citoyens disposent donc d’un droit d’opposition en cas de traitement illégal de leurs données. Toutefois, ce droit demeure difficile à exercer, car il exige de démontrer une violation précise du RGPD, ce qui suppose une maîtrise juridique et technique que peu d’usagers possèdent.

4. Le droit à la déconnexion et la protection de la dignité humaine

La protection de la vie privée vise fondamentalement à garantir l’autonomie et la dignité de l’individu. Ces principes sous-tendent de nombreuses décisions de la Cour européenne des droits de l’homme.

Bien que la Cour n’ait pas explicitement reconnu un droit général à vivre hors ligne, plusieurs arrêts offrent des pistes intéressantes. Dans l’affaire Lacatus c. Suisse, la Cour a jugé que l’interdiction de mendier dans l’espace public portait atteinte à la dignité de la requérante, privée de son seul moyen de subsistance. La Cour a également reconnu que le choix de son apparence physique relevait de la vie privée protégée par l’article 8 de la Convention.

Par analogie, imposer à des individus vulnérables l’usage obligatoire d’Internet pour accéder à des services essentiels pourrait constituer une atteinte disproportionnée à leur dignité et à leur autonomie. Cependant, la protection offerte par l’article 8 de la CEDH n’est pas automatique : elle suppose de démontrer une atteinte grave et concrète aux conditions de vie de la personne concernée.

Ainsi, seuls certains individus, en situation avérée de vulnérabilité, pourraient bénéficier d’une protection effective fondée sur le respect de la dignité humaine.

5. Conclusion

À ce jour, selon l’auteur le droit français ne consacre pas un droit général à vivre hors ligne. Toutefois, des mécanismes spécifiques existent pour obtenir, dans certaines circonstances, des alternatives aux démarches numériques.

Ces mécanismes reposent sur deux fondements : la lutte contre les discriminations et la protection de la vie privée et des données personnelles. Dans tous les cas, l’accès à une alternative hors ligne semble toutefois conditionné par la capacité de l’usager à prouver son impossibilité concrète d’utiliser les outils numériques proposés.

Cette exigence de preuve représente un obstacle important pour les personnes concernées, en particulier en l’absence de dispositifs d’assistance juridique accessibles. Le poids de l’initiative et de la démonstration repose entièrement sur l’individu.

Des évolutions sont néanmoins envisageables. Le Conseil d’État a récemment plaidé pour une généralisation des alternatives hors ligne dans les services publics. De plus, le débat croissant autour du droit à la déconnexion et du droit de payer en espèces laisse entrevoir une dynamique favorable à une meilleure protection du droit de vivre hors du numérique.

Me Philippe Ehrenström, avocat, LLM

Publié dans discrimination, droit français, Libertés, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

Deux nouveaux calculateurs de salaire

L’Union syndicale suisse vient de mettre en place un nouveau calculateur de salaire ici: https://www.uss.ch/themes/travail/detail/calculateur-de-salaire-transparence-meilleurs-salaires

Si l’initiative est évidemment à saluer, et rendra des services pratiques notables pour les praticiens, on permettra aussi de signaler la résurrection apparemment inespérée, et peu mise en avant, de l’application salarium de l’Office fédéral de la statistique fin 2024 : https://www.salarium.bfs.admin.ch/disclaimer

Il s’agit d’outils indispensables pour appréhender le salaire usuel, la rémunération convenable de l’art. 349a al. 2 CO, etc.

Me Philippe Ehrenström, avocat, LLM

Publié dans Salaire | Tagué , , , | Laisser un commentaire

L’intelligence artificielle comme technologie normale

Introduction générale

Dans leur essai « AI as Normal Technology » (https://knightcolumbia.org/content/ai-as-normal-technology), Arvind Narayanan et Sayash Kapoor proposent une reconfiguration du débat public et politique sur l’intelligence artificielle (IA). Ils proposent de considérer l’IA non pas comme une entité émergente potentiellement autonome et superintelligente, potentiellement menaçante, mais simplement comme une technologie normale, comparable aux grandes technologies de transformation sociétale du passé telles que l’électricité ou Internet. Cette conception entend se départir des scénarios extrêmes – utopiques ou dystopiques – qui dominent actuellement la discussion, en particulier dans les milieux influencés par les visions transhumanistes ou par le mouvement de l’ »AI safety ».

Cette perspective est triplement normative, descriptive et prospective : elle décrit l’IA actuelle, propose une vision probable de son avenir et prescrit une approche politique et sociale prudente, sans verser dans l’alarmisme.

I. Une trajectoire technologique comparable aux révolutions passées

Les auteurs commencent par distinguer trois étapes cruciales de l’innovation technologique : les méthodes (développement fondamental), les applications (produits concrets) et l’adoption (diffusion sociale). Dans le cas de l’IA, si les progrès méthodologiques sont rapides – notamment avec l’essor des modèles de langage comme GPT-4 – la diffusion, surtout dans les domaines critiques comme la médecine, le droit ou l’éducation, reste lente. Cela est dû à un certain nombres de freins et de « bottlenecks » tels que les contraintes réglementaires, institutionnelles et organisationnelles, mais aussi l’organisation du travail, le gouffre entre progrès et mise en œuvre, d’autres facteurs encore, qui rendent peu probables, sauf dans certains secteurs très particuliers, une transformation radicale et rapide du monde.

Cette lenteur de diffusion est structurante : elle limite les effets disruptifs de l’IA dans l’immédiat, contrairement à ce que certains scénarios « d’explosion de l’intelligence » suggèrent. En prenant l’exemple de la prédiction de la septicémie par un algorithme hospitalier, les auteurs montrent que des erreurs conceptuelles dans la modélisation peuvent conduire à des résultats contre-productifs, voire dangereux, soulignant les limites de l’automatisation dans des contextes à haut risque.

Le parallèle avec l’électrification industrielle est éclairant : comme au XIXe siècle, les gains de productivité dus à l’électrification ont mis des décennies à se concrétiser, car ils ont nécessité des transformations profondes des structures d’organisation du travail.

II. Repenser le rôle humain dans un monde avec IA avancée

Narayanan et Kapoor contestent les notions d’ »intelligence » ou de « superintelligence » comme cadre explicatif pertinent pour comprendre l’évolution de l’IA. Ils leur préfèrent les concepts de « capacité » et de « pouvoir » (power), au sens de la faculté d’agir sur le monde. Ainsi, l’IA ne devient problématique que si elle concentre un pouvoir hors de contrôle humain, et non en raison d’un quelconque statut cognitif supérieur.

Ils rejettent l’hypothèse d’une rupture nette dans la distribution des capacités entre humains et IA. L’humain, appuyé par des outils intelligents, reste le centre de la décision et du contrôle. Il s’ensuit que la majorité des emplois humains évolueront vers des tâches de spécification et de supervision de l’IA. C’est l’humain qui définit les objectifs, vérifie les sorties, corrige les dérives et garantit la conformité aux normes légales, éthiques et pratiques.

Des exemples comme la conduite de camions montrent que les tâches réellement difficiles à automatiser sont celles qui exigent de la coordination humaine, des ajustements en temps réel, de la maintenance, des interactions sociales ou encore une adaptation aux imprévus.

III. Les risques de l’IA reconsidérés à la lumière de sa normalité

Les auteurs consacrent un pan entier de leur démonstration à la critique de la hiérarchisation des risques dans les discours dominants sur l’IA. Ils identifient cinq grandes catégories de risques :

Accidents : erreurs de fonctionnement dues à une mauvaise conception ou un déploiement prématuré. Ces risques sont comparables à ceux d’autres technologies complexes (nucléaire civil, transport aérien) et peuvent être maîtrisés par des approches classiques de régulation, d’audit et de normes, comme ils le furent dans le passé.

Courses aux armements entre acteurs privés ou nation : il ne s’agit pas ici du domaine militaire (qui est hors champ de leur étude) que des dynamiques commerciales où des entreprises et/ou des pays négligeraient la sécurité au profit de la rapidité de mise sur le marché. Ces dynamiques sont déjà observées dans les secteurs de la voiture autonome ou des réseaux sociaux, et peuvent faire l’objet de réponses distinctes qui ne sont pas propres à l’IA.

Mauvais usage : les risques viennent moins de la technologie que de ses usagers. L’IA utilisée dans le phishing ou la désinformation n’est pas en elle-même malveillante : c’est le contexte de son déploiement qui détermine sa dangerosité. Le renforcement des défenses « en aval » (surveillance, sécurité informatique, éducation) est donc plus pertinent que l’alignement des modèles. Par ailleurs restreindre les outils issus de l’IA par peur de ses mauvais usages revient à de priver de leur utilisation pour les bons : l’utilisation de l’IA de manière défensive dans le domaine de la cybersécurité est ici tout à gait convaincant.

Désalignement : les scénarios de type « paperclip maximizer » (IA transformant tout en trombones pour optimiser une fonction mal spécifiée) sont jugés spéculatifs. Les auteurs soulignent que toute technologie passe par des phases sectorielles d’évaluation progressive avant d’être déployée à grande échelle.

Risques systémiques non catastrophiques : ce sont les plus probables selon les auteurs. Inégalités accrues, précarisation du travail, surveillance de masse, concentration du pouvoir technologique, déstabilisation démocratique : ces dérives ne relèvent pas d’une IA malveillante, mais d’une IA normalement utilisée dans un cadre capitaliste peu régulé. Un parallèle avec l’histoire et les effets de l’industrialisation est ici tout à fait éclairant. Cela étant dit, d’autres parallèles historiques peuvent aussi être dressés pour établir qu’une intervention mesurée, sectorielle, est à même de limiter ces risques systémiques, pour autant qu’il s’agisse de favoriser la résilience plutôt que la non prolifératiom.

IV. Politiques publiques : de la précaution à la résilience

En matière de régulation, Narayanan et Kapoor recommandent de privilégier une politique de résilience plutôt que de non-prolifération. La première consiste à renforcer les capacités institutionnelles, à favoriser la transparence, à développer l’accès aux outils IA et à prévenir la concentration excessive du pouvoir technologique.

À l’inverse, les politiques de type « interdiction des modèles au-delà d’un certain seuil de capacité », prônées par certains partisans de la régulation forte, sont vues comme contre-productives : elles risquent de renforcer les monopoles, de freiner les innovations utiles, et paradoxalement d’augmenter les risques en rendant la société moins adaptable, y compris pour les usages bénéfiques ou défensifs de l’IA.

Les auteurs plaident pour une gouvernance distribuée, sectorielle, inspirée des régulations existantes dans l’aviation, la santé ou la finance, adaptées aux spécificités de chaque domaine.

Ils insistent également sur les limites d’une approche probabiliste ou utilitariste fondée sur l’évaluation des « risques existentiels » : les incertitudes sont trop nombreuses, les valeurs morales trop divergentes, et les effets systémiques trop complexes pour être capturés dans un modèle de calcul de l’utilité attendue.

Conclusion : un appel à la lucidité sans catastrophisme

Le cadre proposé par Narayanan et Kapoor est stimulant: il déconstruit les analogies abusives entre IA et intelligence humaine, relativise les scénarios de rupture radicale et propose une vision plus enracinée dans les réalités socio-économiques. À l’image des révolutions industrielles passées, l’IA est appelée à transformer profondément les sociétés, mais lentement, et selon des dynamiques complexes. Pour les juristes suisses, ce cadre incite moins d’inventer un droit de l’IA que d’adapter les dispositifs existants, d’anticiper les usages réels, de modifier le droit là où c’est souhaitable de manière décentralisée, et de promouvoir un équilibre entre innovation, équité et sécurité.

L’article est par ailleurs rempli d’observations intéressantes au fil de son développement, qu’il serait vain de restituer ici. Une mention toutefois pour la catégorie à haut risque de certains systèmes d’IA, mise en avant la par le Règlement européen – les auteurs montrent bien (mais en passant…) que le risque peut être inégalement partagé au sein de chque catégorie!

[Arvind Narayanan et Sayash Kapoor sont aussi les auteurs – parmi de nombreuses autres publications –  de AI as Snake Oil, Princeton, 2024, qui est pour moi la meilleure introduction que je connaisse à l’intelligence artificielle, ses usages, son histoire, ses succès… et ses échecs, dans une approche pragmatique, argumentée et factuelle.]

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Le faux billet de blog comme pratique commerciale trompeuse et acte de concurrence déloyale

Quelques remarques sur l’arrêt de la Cour d’appel de Paris du 14 mars 2025 RG n° 22/16356 :

L’arrêt oppose deux sociétés françaises exerçant dans le secteur des formations en codage informatique : d’une part, La L et sa filiale Le W, qui exploitent des formations profesionnelles intensives sous forme de bootcamps, et d’autre part, La C, également opérateur de bootcamps. L’enjeu du litige repose sur la publication, sur un blog, d’un article critique visant Le W, et attribué de manière indirecte à La C.

Le raisonnement de la Cour est structuré selon deux axes : l’analyse des pratiques commerciales déloyales trompeuses, en application du Code de la consommation, puis celle des actes de concurrence déloyale, en application de l’article 1240 du Code civil français.

I. Pratiques commerciales déloyales et trompeuses

La Cour commence par rappeler le cadre juridique applicable aux pratiques commerciales déloyales, lesquelles sont interdites en vertu de l’article L. 121-1 du Code de la consommation. Elle souligne qu’une pratique est déloyale si elle est contraire aux exigences de la diligence professionnelle et altère ou est susceptible d’altérer de manière substantielle le comportement économique du consommateur.

Elle distingue ensuite trois composantes essentielles dans l’analyse des faits reprochés à La C : l’absence d’identification claire de l’éditeur du site et de l’auteur de l’article, les informations erronées sur le contenu des formations concurrentes, et enfin l’intention commerciale dissimulée.

A. L’absence d’identification de l’auteur : une tromperie par omission

L’article incriminé, intitulé « Avis Le W, est-ce le meilleur choix pour vous ? », a été publié anonymement sur un blog nommé « xxxxxx ». Il reprenait le contenu d’un premier article supprimé, rédigé par un ancien élève de La C. Or, ce blog ne comportait ni mentions légales ni indications sur l’éditeur du site. La Cour considère que cette absence d’identification constitue en soi une pratique commerciale trompeuse, au sens de l’article L. 121-2, 3° du Code de la consommation. Le consommateur ne peut identifier la personne pour le compte de laquelle le contenu a été mis en ligne, ce qui le prive d’informations essentielles.

L’anonymat de la publication a obligé les sociétés Le W et La L à saisir le tribunal judiciaire pour obtenir, via l’AFNIC, les informations d’enregistrement du nom de domaine. Elles ont alors découvert que les dirigeants de La C étaient les réservataires du domaine, ce qui accrédite l’intention de masquer l’origine réelle du contenu.

B. Des informations fausses ou partiales sur le service concurrent

Sur le fond, la Cour relève plusieurs inexactitudes factuelles dans l’article, portant sur des éléments décisifs pour le choix d’un programme de formation. Il y est affirmé que les promotions du W comprendraient entre 80 et 100 élèves, alors que la réalité est d’un maximum de 50. Il est aussi critiqué le choix du langage « Ruby » en back-end, jugé obsolète, alors que Le W enseigne également JavaScript en front-end. Ces présentations erronées ou biaisées, qui décrivent les formations du W comme étant inadaptées, sont jugées susceptibles d’induire le consommateur en erreur sur les caractéristiques essentielles du service, en violation de l’article L. 121-2, 2° b) du Code de la consommation.

La Cour souligne ici que la qualité trompeuse de ces allégations n’est pas atténuée par le fait qu’elles ne concernent pas les produits ou services de l’auteur, mais ceux de ses concurrents. Elle rejette expressément l’argument de La C selon lequel seuls les propos portant sur ses propres prestations pourraient relever de la tromperie.

C. Une intention commerciale dissimulée : un défaut de transparence

Enfin, la Cour note que l’article se présente comme un avis indépendant, exprimé par un ancien élève du W, alors qu’il s’agit en réalité d’une stratégie de promotion indirecte au profit de La C. Le blog ne contient aucun indice permettant au lecteur de comprendre qu’il s’agit d’un contenu sponsorisé, ni que son auteur a suivi la formation de La C et non celle du W. Il s’agit donc d’une pratique trompeuse par omission, en ce que l’intention commerciale réelle de l’auteur n’est pas révélée, contrairement aux exigences de l’article L. 121-3 du Code de la consommation.

II. Actes de concurrence déloyale

La seconde partie du raisonnement mobilise le droit commun de la responsabilité délictuelle, fondé sur l’article 1240 du Code civil. À la différence des pratiques commerciales trompeuses, la concurrence déloyale suppose la réunion de trois éléments : une faute, un préjudice et un lien de causalité. Nous examinerons les deux premiers, la causalité de posant guère de problèmes :

A. La caractérisation d’une faute par des procédés déloyaux

La Cour constate que l’article litigieux, qui reprend visuellement le logo du W, oriente clairement le lecteur vers la formation concurrente dispensée par La C, en lui vantant les mérites du langage JavaScript, tout en discréditant la formation du W. Elle relève aussi que l’auteur ne se fonde pas sur une expérience directe mais sur les « feedbacks » d’un entourage non identifié.

Le caractère partisan et mensonger du contenu, conjugué à son référencement optimal sur Google (l’article apparaissait en premier résultat à la recherche « avis Le W »), démontre selon la Cour une stratégie délibérée de captation de clientèle par des moyens déloyaux. Elle insiste également sur le fait que le site « xxxxxx » semble avoir été spécifiquement conçu pour publier cet unique contenu.

B. L’existence d’un préjudice économique et moral

La preuve du préjudice est abordée sous deux angles : la perte de chance économique et l’atteinte à l’image.

Sur le plan économique, Le W et La L ont produit des données de trafic et des statistiques de conversion issues de Google Analytics et Ahrefs. Elles établissent une chute du nombre de candidatures à leurs formations juste après la publication de l’article, suivie d’une remontée après son retrait. La Cour valide ce raisonnement, mais ajuste à la baisse l’estimation du préjudice, retenant une perte de chance à hauteur de 40 % et fixant l’indemnisation à 18.186 euros.

Concernant le préjudice moral, la Cour reconnaît l’impact négatif d’un article faussement objectif, reprenant le nom et le logo du W, apparaissant en tête des résultats de recherche, et véhiculant des informations erronées. Elle accorde à ce titre une réparation symbolique d’un euro, mais rappelle le caractère réel de l’atteinte à l’image.

Conclusion

La Cour d’appel de Paris propose une analyse rigoureuse et pédagogique des deux fondements juridiques invoqués. Elle distingue clairement la pratique commerciale trompeuse, entendue comme une infraction autonome régie par le Code de la consommation, de la concurrence déloyale, qui relève de la responsabilité civile générale. Néanmoins, les faits étant identiques, les deux qualifications se croisent et se complètent.

Cette affaire illustre les risques juridiques associés à l’utilisation de contenus soi-disant neutres sur internet pour influencer subrepticement les choix des consommateurs. Elle confirme que la transparence commerciale et l’honnêteté dans la comparaison concurrentielle sont des exigences de fond, dont le non-respect peut entraîner des sanctions financières et réputationnelles notables.

[Repéré par Me Alexandre Archambault : https://www.linkedin.com/posts/aarchambault_ca-paris-14032025-2216356-activity-7309865072632160256-U9ns?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAX2b5oB2W8RFgEb7aoRz8wscswBHlxf0Mg]

Me Philippe Ehrenström, avocat, LLM

Publié dans concurrence déloyale, droit français | Tagué , , , , , , | Laisser un commentaire

Le blocage d’accès à des contenus en ligne pour les mineurs

Introduction

La décision (n° 2506972/5-4) rendue par le Tribunal administratif de Paris le 15 avril 2025 dans l’affaire opposant la société Cloudflare à l’Arcom se penche sur la mise en œuvre des dispositifs de contrôle d’accès aux contenus pornographiques en ligne, en particulier s’agissant de la protection des mineurs.

Contexte factuel et juridique

Le litige oppose la société américaine Cloudflare, fournisseur de services de résolution de noms de domaine (DNS resolver), à l’Arcom. Par une décision du 6 mars 2025, le président de l’Arcom a notifié à Cloudflare l’adresse électronique https://xxxx.net/, enjoignant à l’entreprise d’empêcher l’accès à ce site dans un délai de quarante-huit heures pour une durée de deux ans. La mesure s’accompagnait d’une redirection des utilisateurs vers une page d’information hébergée à l’adresse IP xxxxxxxxxx..

Ce site, selon les constatations des agents de l’Arcom, diffusait des contenus à caractère pornographique accessibles sans aucune forme de vérification de l’âge des utilisateurs, en infraction avec les dispositions de l’article 227-24 du code pénal français. Ce dernier réprime la diffusion de contenus pornographiques susceptibles d’être vus par un mineur, y compris si l’accès résulte d’une simple déclaration d’âge.

En conséquence, l’Arcom a fondé sa décision sur l’article 10-1 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), qui permet d’ordonner à certains fournisseurs techniques, tels que les DNS resolvers, d’empêcher l’accès à de tels services en ligne.

Cloudflare a saisi le Tribunal administratif de Paris pour contester cette décision, soulevant de multiples moyens de droit, tant sur le fond que sur la forme.

Sur la légalité externe de la décision

La société requérante soutenait notamment que la décision était insuffisamment motivée au regard des articles L. 211-2 et L. 221-5 du code des relations entre le public et l’administration. Le tribunal a écarté cet argument, estimant que les éléments de fait (accès sans contrôle d’âge à des contenus pornographiques) et de droit (fondements juridiques mobilisés) étaient dûment mentionnés, conformément aux exigences jurisprudentielles.

Un deuxième moyen tiré de l’absence de signature régulière a également été rejeté. Le tribunal a considéré que l’identité de l’auteur de la décision, son autorité compétente (le président de l’Arcom), et la présence d’une signature conforme étaient établies.

Sur la légalité interne : articulation entre droit national et droit européen

La société Cloudflare soulevait de nombreuses objections fondées sur la prétention que le dispositif national violerait plusieurs sources du droit de l’Union européenne.

a) Directive 2015/1535 et obligation de notification des règles techniques

La directive impose aux États membres la notification des règles techniques nouvelles à la Commission européenne. Le tribunal a reconnu que les articles 10 et 10-1 LCEN, en imposant une vérification d’âge au-delà de la simple déclaration, constituaient une règle technique au sens de l’article 1er de la directive. Toutefois, il a été établi que cette notification avait bien été effectuée, en conformité avec la procédure.

b) Compatibilité avec le Digital Services Act (règlement UE 2022/2065)

Le DSA harmonise le régime applicable aux services intermédiaires. Toutefois, son champ d’application quant aux obligations de protection des mineurs est limité aux plateformes normalement accessibles aux mineurs et aux très grandes plateformes en ligne. Le site Camschat ne relevait d’aucune de ces catégories.

Le tribunal en conclut que les États membres conservent une compétence résiduelle pour imposer des obligations plus strictes dans les cas non couverts par le DSA, en particulier s’agissant de contenus à caractère sexuel licite mais potentiellement préjudiciables pour les mineurs.

c) Directive 2000/31/CE sur le commerce électronique et principe du pays d’origine

L’article 3 de la directive interdit en principe à un État membre de restreindre l’accès à un service fourni depuis un autre État membre, sauf conditions strictes. Le tribunal, s’appuyant sur la jurisprudence de la CJUE (Google Ireland, C-376/22), a jugé que l’article 10-2 LCEN était conforme, car il ciblait nommément certains services ou fournisseurs, selon une procédure dérogatoire prévue par ladite directive.

Ainsi, l’interdiction générale de discrimination entre prestataires intra-UE et extra-UE ne s’applique pas à cette différenciation, jugée objectivement justifiée.

Atteinte aux droits fondamentaux : analyse de proportionnalité

Les moyens tirés de la violation des articles 47 à 49 de la Charte des droits fondamentaux (droit au recours effectif, légalité des peines, droits de la défense), ont été jugés inopérants. Le tribunal qualifie la mesure de police administrative, non de sanction. Il en découle que les garanties pénales ne sont pas applicables.

De même, l’atteinte à la liberté d’expression (article 10 CEDH) et à la liberté d’entreprendre (article 16 de la Charte) a été estimée proportionnée au but poursuivi, à savoir la protection de l’enfance. L’Arcom s’est bornée à constater un manquement objectif à une obligation claire, sans porter de jugement sur le contenu du site en tant que tel.

Effets juridiques et portée pratique de la mesure

La décision du tribunal valide le fait que le blocage peut être ordonné même si le contenu du site est licite en soi. L’absence de contrôle d’âge constitue à elle seule une irrégularité suffisante pour justifier l’intervention administrative.

Concernant la redirection vers une page d’information de l’Arcom, le tribunal estime qu’elle est conforme aux finalités de la loi : elle assure la transparence de la mesure et préserve l’information du public.

Enfin, le tribunal rappelle que la durée de deux ans est conforme au cadre posé par la LCEN, et qu’une réévaluation annuelle de la mesure est prévue.

Conclusion

En résumé, le Tribunal administratif de Paris démontre par une motivation très fouillée que le dispositif de droit français, bien que contraignant pour certains prestataires étrangers, demeure conforme aux exigences du droit européen. Cette jurisprudence pourrait être utilisée comme modèle par d’autres États membres souhaitant mettre en place des mécanismes similaires de régulation de l’accès aux contenus sensibles sur internet.

(Source : post de Me Vincent Gury et lien vers la décision https://www.linkedin.com/posts/vincent-gury-8a51089_jugement-ta-de-paris-ugcPost-7317834354435448833-Fbux?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAX2b5oB2W8RFgEb7aoRz8wscswBHlxf0Mg)

Me Philippe Ehrenström, avocat, LLM

Publié dans droit français, intelligence artificielle | Tagué , , , , , , | Laisser un commentaire

Discrimination entre employées en raison de leur situation de famille

Arrêt Cass. soc. 9 avril 2025, n° 23-14.016 – Discrimination fondée sur la situation de famille

Dans son arrêt du 9 avril 2025, la Chambre sociale de la Cour de cassation française s’est prononcée sur une situation de discrimination en matière de rémunération, dans un contexte particulier de relations de travail entre un député et ses collaborateurs parlementaires. La décision illustre avec force l’interprétation large que la Cour donne à la notion de « situation de famille » au sens de l’article L. 1132-1 du Code du travail, tout en se plaçant dans le sillage de la jurisprudence européenne en matière de lutte contre les discriminations.

Les faits à l’origine du litige sont les suivants : Mme [F] avait été engagée en 2005 en qualité de collaboratrice parlementaire par M. [J], député, à temps partiel et en tant que cadre. À l’issue du mandat parlementaire de son employeur en 2017, elle fut licenciée pour ce motif, ce qui n’était pas en soi contesté. Toutefois, elle a saisi les juridictions prud’homales en 2018, estimant avoir subi une inégalité de traitement constitutive d’une discrimination indirecte fondée sur sa situation de famille. Plus précisément, elle alléguait que les conditions de rémunération et d’évolution professionnelle qui lui avaient été appliquées étaient moins favorables que celles d’une autre collaboratrice occupant des fonctions comparables — en l’occurrence, la propre épouse du député employeur.

Le cœur du contentieux portait donc sur la question de savoir si le fait de ne pas appartenir à la famille de l’employeur, en l’espèce de ne pas être son épouse, pouvait être considéré comme un critère de discrimination au sens de la « situation de famille » telle que visée à l’article L. 1132-1 du Code du travail.

Dans un premier temps, la Cour de cassation écarte les deux autres moyens du pourvoi, jugés sans portée, et concentre son examen sur le moyen principal tiré de l’interprétation de la notion de « situation de famille ». L’argumentation de l’employeur reposait sur une lecture restrictive du texte : selon lui, le critère de la situation de famille ne devrait s’appliquer qu’à la situation personnelle du salarié discriminé, et non au lien (ou à l’absence de lien) entre ce salarié et l’employeur. Il affirmait donc qu’il n’y avait pas de discrimination au sens de la loi, dès lors que la plaignante n’était pas défavorisée en raison de sa propre situation familiale, mais uniquement du fait qu’elle ne faisait pas partie de la famille de l’employeur.

La Cour rejette cette interprétation et affirme au contraire une conception large et finaliste de la règle antidiscriminatoire. Elle rappelle que l’article L. 1132-1 interdit toute discrimination en raison de la situation de famille du salarié, et que ce motif peut être retenu même lorsque la différence de traitement repose indirectement sur ce critère. Autrement dit, peu importe que la discrimination ne vise pas la structure familiale du salarié lui-même : il suffit que le critère familial ait servi de fondement à un traitement défavorable par comparaison à un autre salarié. La Cour précise que le fait de ne pas appartenir au cercle familial de l’employeur constitue une « situation de famille » au sens du texte dès lors que ce facteur est utilisé pour justifier une différence de traitement.

Dans le cas d’espèce, M. [J] avait explicitement fondé la différence de rémunération et de traitement entre Mme [F] et son autre collaboratrice — son épouse — sur des considérations relatives à la confiance, à la disponibilité et à la nature politique des fonctions confiées. Ces considérations, bien qu’elles puissent apparaître fonctionnelles, reposaient en réalité sur le lien conjugal. Le raisonnement de l’employeur aboutissait à privilégier son épouse, non pour des raisons objectivement liées à ses compétences ou à son poste, mais parce qu’elle était précisément son épouse. Ce raisonnement, qui postule une équivalence entre « membre de la famille » et « personne de confiance disponible », conduit à traiter moins favorablement les collaborateurs extérieurs au cercle familial.

Ce fondement, jugé par la Cour comme reposant sur un critère de nature familiale, entraîne une discrimination prohibée par la loi. La Haute juridiction insiste sur la nécessité de retenir une approche matérielle et pragmatique des motifs discriminatoires, rejoignant en cela la jurisprudence de la Cour de justice de l’Union européenne. Elle cite notamment les arrêts Coleman (CJUE, 17 juillet 2008, C-303/06) et Nikolova (CJUE, 16 juillet 2015, C-83/14), qui affirment que le principe d’égalité de traitement vise les motifs, et non nécessairement la qualité personnelle des individus concernés. Autrement dit, peu importe que la personne discriminée ne soit pas directement porteuse de la caractéristique protégée : il suffit que cette caractéristique ait été déterminante dans la différence de traitement.

C’est donc au terme de ce raisonnement que la Cour de cassation valide l’analyse des juges d’appel : la différence de traitement reposait sur la seule qualité d’épouse de la collaboratrice de comparaison, ce qui revenait à discriminer Mme [F] en raison de son absence d’appartenance à la famille de l’employeur. Elle en tire la conséquence que les rappels de salaires, indemnités et autres sommes dues à ce titre sont fondés, de même que l’allocation de dommages-intérêts.

La portée de cet arrêt dépasse largement le cas d’espèce. Il confirme d’une part que la notion de « situation de famille » au sens du droit du travail français inclut des éléments relationnels impliquant l’employeur, dès lors qu’ils produisent des effets défavorables sur un salarié. D’autre part, il renforce l’alignement du droit interne sur les exigences européennes de lutte contre les discriminations, en insistant sur une lecture téléologique des critères discriminatoires, au service de l’égalité de traitement réelle.

Enfin, cet arrêt souligne une dimension plus politique du contentieux, liée aux pratiques de recrutement et de traitement des collaborateurs parlementaires. Il rappelle qu’au-delà de la spécificité de la fonction, ces collaborateurs sont des salariés soumis aux règles du droit commun du travail, y compris en matière de non-discrimination.

NB : en l’absence de droit à l’égalité de traitement, sauf en matière salariale entre les sexes, une situation similaire, en droit suisse, aurait surtout de fortes incidences fiscales, le fisc requalifiant la différence de salaire en faveur de l’épouse en distribution dissimulée de bénéfices, avec des effets ravageurs tant pour l’employeur que pour l’intéressée.

Me Philippe Ehrenström, avocat, LLM

Publié dans discrimination, droit français | Tagué , , | Laisser un commentaire

Un cadre exerce-t-il nécessairement une fonction dirigeante élevée au sens de la loi sur le travail ?

Le Tribunal a considéré que l’intimé [l’employé], bien que possédant le titre de directeur, n’avait pas de pouvoirs décisionnels importants et qu’il ne pouvait pas engager la société, ni du personnel sous sa seule responsabilité. Il ne pouvait dès lors, de par sa position, pas être exclu du champ d’application de la Convention collective nationale de travail pour les hôtels, restaurants et cafés, étendue par arrêté du Conseil fédéral (CCNT).

L’appelante [l’employeuse] fait valoir qu’il fallait retenir que l’intimé avait une position dirigeante, ce qui avait pour conséquence, d’une part, que l’application de la CCNT devait être exclue à compter 1er août 2022, ce qui influençait le calcul du délai de congé et le droit aux vacances et, d’autre part, qu’un devoir de diligence accru devait être retenu à l’égard de l’intimé.

Dans la branche économique de l’hôtellerie et de la restauration, les rapports de travail sont régis par la Convention collective nationale de travail pour les hôtels, restaurants et cafés du 6 juillet 1998, entrée en vigueur le 1er octobre 1998 et dont la dernière version date du 1er janvier 2017 (CCNT). Par arrêtés successifs, le Conseil fédéral, fort des pouvoirs accordés par la loi fédérale permettant d’étendre le champ d’application d’une convention collective nationale de travail (LECCT, RS 221.215.311), a étendu la CCNT, y compris les modifications survenues dans ce texte (la dernière fois le 15 février 2024, cf. FF 2024 380), de sorte que ses clauses s’appliquent également aux employeurs et travailleurs auxquels elle est étendue. Si la convention collective de travail a un effet direct et impératif sur les rapports de travail qu’elle régit, elle n’exclut pas une réglementation plus favorable au travailleur en vertu de l’art. 357 al. 2 CO.

La CCNT s’applique aux établissements proposant des prestations dans les domaines de l’hôtellerie et de la restauration, ainsi qu’à leurs travailleurs (art. 1 al. 1 CCNT). L’art. 2 al. 2 CCNT énumère exhaustivement les personnes exceptées de son champ d’application, dont notamment les chefs d’établissement et les directeurs. Le commentaire de la CCNT relatif à cet article précise que les collaborateurs qui exercent la fonction de chef d’établissement, de directeur, de gérant ou d’administrateur ne sont pas soumis à la CCNT. Le titre de la fonction ne suffit pas en soi pour échapper au régime de la CCNT. Ne sont exclues de la CCNT que les personnes qui, de par leur position et leur responsabilité et eu égard à la taille de l’établissement, disposent d’un pouvoir de décision important ou participent de manière déterminante à des décisions de portée majeure et peuvent ainsi influencer de manière durable la structure, la marche des affaires et le développement de l’établissement (art. 9 de l’Ordonnance 1 relative à la Loi sur le travail OLT 1). Tel est le cas par exemple d’une personne qui est habilitée à engager ou à licencier des collaborateurs sous sa propre responsabilité et qui peut déterminer la politique des salaires de l’établissement. En revanche, les chefs d’établissement, directeurs, gérants ou administrateurs qui ne disposent d’aucun pouvoir de décision important au sens de l’art. 9 OLT 1 sont soumis à la CCNT (Commentaire CCNT, état au 1er janvier 2017, art. 2).

La fonction dirigeante élevée est définie à l’art. 9 OLT 1 de la manière suivante: « exerce une fonction dirigeante élevée quiconque dispose, de par sa position et sa responsabilité et eu égard à la taille de l’entreprise, d’un pouvoir de décision important, ou est en mesure d’influencer fortement des décisions de portée majeure concernant notamment la structure, la marche des affaires et le développement d’une entreprise ou d’une partie d’entreprise ». Cette notion reste toutefois sujette à interprétation et ses contours ont été précisés par la jurisprudence et la doctrine.

D’après la jurisprudence, la qualité de fonction dirigeante élevée implique une structure un tant soit peu complexe et hiérarchisée. L’employé exerçant une fonction dirigeante élevée doit ainsi se trouver au sommet de la hiérarchie et bénéficier d’une position privilégiée au sein du personnel de l’entreprise. Admettre le contraire conduirait immanquablement à des abus et, en définitive, à vider la loi de son sens, puisque cela permettrait à toutes les petites structures de contourner les prescriptions relatives au travail du dimanche et aux heures d’ouverture des magasins, en engageant un seul employé à qui elles confieraient toutes les responsabilités liées à l’exploitation de l’entreprise (ATF 140 II 46 consid. 2.4; arrêt du Tribunal fédéral 2C_745/2014 du 27 mars 2015 consid. 3.4). Cette notion doit être interprétée restrictivement (ATF 126 III 337 consid. 5a; arrêts 4A_258/2010 du 23 août 2010 consid. 1; 4C_310/2002 du 14 février 2003 consid. 5.2).

Les affaires essentielles correspondent à celles qui sont de nature à influencer de façon durable la marche et la structure de l’entreprise dans son ensemble, ou du moins dans l’une de ses parties importantes. Une position de confiance, la compétence de signer au nom de l’employeur ou celle de donner des instructions peuvent aussi être conférées à des travailleurs qui n’exercent pas de fonction dirigeante élevée aux termes de cette disposition; par conséquent, les faits de ce genre ne constituent pas des critères décisifs (ATF 126 III 337 consid. 5b; 98 Ib 344 consid. 2; arrêts du Tribunal fédéral 2C_745/2014 du 27 mars 2015 consid. 3.1; 4C_310/2002 du 14 février 2003 consid. 5.2). En tout état de cause, il faut trancher la question de cas en cas, sans égard ni au titre ni à la formation reçue par la personne concernée, mais d’après la nature réelle de la fonction et en tenant compte des dimensions de l’entreprise (ATF 126 III 337 consid. 5a; arrêts du Tribunal fédéral 4A_30/2021 du 16 juillet 2021 consid. 3.1; 2C_745/2014 du 27 mars 2015 consid. 3.1).

La doctrine, pour sa part, relève qu’il convient de ne pas confondre la notion restreinte de travailleur qui exerce une fonction dirigeante élevée avec la notion de cadre qui est, elle, autonome et beaucoup plus large. La plupart des cadres en Suisse ne font pas partie de la catégorie des travailleurs exerçant une fonction dirigeante élevée (Wyler/Heinzer/Witzig, Droit du travail 2024, p. 139-140; Dunand/Mahon, Commentaire du contrat de travail 2022, n°74-76 ad art. 321c; Dunand in Newsletter DroitDuTravail.ch mai 2015, commentaire de l’arrêt du Tribunal fédéral 2C_745/2014, p. 4-5). Dans la mesure où le Code des obligations ne la définit pas, la notion de cadre reste indéterminée et sujette à plusieurs acceptions. En principe, un cadre, et même un cadre dirigeant, bénéficie des règles protectrices du droit du travail, pour autant que le contrat qui le lie à son entreprise corresponde aux critères légaux du contrat de travail, les art. 319ss CO réglant tous les contrats de travail indépendamment du statut du travailleur (ATF 130 III 213 consid. 2.1). La jurisprudence admet quelques exceptions, pour les cadres supérieurs, qui ne peuvent par exemple en général pas prétendre à une indemnisation pour les heures supplémentaires de travail (art. 321c CO) et ont, en raison du crédit particulier et de la responsabilité que leur confère cette fonction dans l’entreprise, une obligation de fidélité accrue (art. 321a CO; ATF 129 III 171 consid. 2.1; 127 III 86 consid. 2c; arrêts du Tribunal fédéral 4A_38/2020 du 22 juillet 2020 consid. 4.1; 4A_172/2012 du 22 août 2012 consid. 4.3.1).

En l’espèce, (…) l’intimé a été promu au rang de directeur à compter du 1er août 2022. Cette nouvelle position impliquait des responsabilités de recrutement, supervision et formation de l’équipe et des responsabilités de coûts matières et de la masse salariale. La fiche de poste prévoit toutefois explicitement que le directeur agissait sous la direction du président ou de tout autre représentant de la direction, ce qui démontre qu’il n’était pas au sommet de la hiérarchie, contrairement à ce qu’exige la jurisprudence pour retenir une fonction dirigeante élevée. L’appelante confirme dans son écriture d’appel que l’intimé avait notamment pour tâche de superviser et fidéliser ses équipes en coordination avec la direction. Le fait que des séances étaient fixées à intervalles réguliers avec F______ et qu’il donnait à ces occasions des instructions à l’intimé sur la manière de diriger l’établissement sont des éléments qui démontrent que ce dernier exerçait ses fonctions sous la supervision de F______ et que son autonomie était limitée. Les parties s’accordent d’ailleurs sur le fait que le rôle de responsable de l’intimé se limitait au personnel de la salle et que le chef de cuisine était responsable du personnel de la cuisine et des budgets. De plus, l’intimé n’avait pas de pouvoir de signature pour la société; il ne signait pas les contrats de travail avec les employés. Rien n’indique qu’il avait, seul, le pouvoir d’influencer fortement des décisions de portée majeure, rôle qui semblait bien plus être attribué à F______ et E______.

Dans ces conditions, contrairement à ce que fait valoir l’appelante, la position de cadre dont jouissait l’intimé ne suffisait pas à lui octroyer le pouvoir décisionnel sur les affaires importantes que requiert la fonction dirigeante élevée au sens de l’art. 9 OLT 1.

Par ailleurs, l’arrêt de la Cour de céans CAPH/240/2006 invoqué par l’appelante ne peut pas être transposé tel quel au cas d’espèce, étant rappelé que chaque situation doit être tranchée au cas par cas, en prenant en compte la nature réelle de la fonction et la dimension de l’entreprise. Or ces deux aspects ne sont pas comparables au cas qui nous occupe. En effet, dans le cas cité en exemple, l’employée, titulaire de la patente, jouissait d’une large autonomie dans l’exploitation du restaurant genevois et l’entreprise possédait plusieurs établissements répartis dans toute la Suisse.

Il ressort des considérations qui précèdent que l’exception prévue à l’art. 2 al. 2 CCNT n’est pas réalisée. Les premiers juges ont retenu avec raison que la CCNT, dans sa version entrée en vigueur au 1er janvier 2017, était applicable aux rapports entre les parties tant pour la période antérieure que postérieure à la promotion de l’intimé.

(ACJC/195/2025 du 11.02.2025, consid. 3 [Chambre des Prud’hommes de la Cour de justice])

Me Philippe Ehrenström, avocat, LLM

Publié dans Droit collectif du travail, Loi sur le travail | Tagué , , , | Laisser un commentaire

L’output d’un système d’intelligence artificielle peut-il être protégé par le droit d’auteur en Suisse ?

Introduction

La prolifération des systèmes d’intelligence artificielle générative (IA générative), capables de produire des images, du texte, de la musique ou des vidéos, interroge le droit d’auteur. En Suisse, comme ailleurs, les créations issues de ces systèmes posent la question centrale suivante : peut-on accorder une protection juridique à ces outputs au regard du droit d’auteur, alors même qu’ils peuvent être produits sur la base de prompts qui sont de simples « suggestions », et dont le résultat n’est pas reproductible ?

Pour répondre à cette question, il faut partir de la législation en vigueur, notamment de la Loi fédérale sur le droit d’auteur et les droits voisins (LDA, RS 231.1), puis explorer les lignes de fracture dans la doctrine suisse, avant d’élargir le regard à l’échelle comparative et internationale.

1. Le cadre juridique suisse actuel : création de l’esprit et individualité

Selon l’article 2 alinéa 1 LDA, est protégée « toute création de l’esprit, littéraire ou artistique, qui a un caractère individuel »​. Ce double critère — création de l’esprit et individualité — constitue le fondement de la protection par le droit d’auteur. Cette définition, stable depuis 1992, n’a pas été conçue pour les productions non humaines. Elle présuppose une activité intellectuelle humaine, orientée vers la création, portant l’empreinte personnelle de l’auteur.

Le droit suisse s’inscrit dans une tradition anthropocentrée de la propriété intellectuelle : la notion de « création de l’esprit » implique nécessairement une intervention humaine consciente, volontaire et originale​. l’auteur doit être une personne physique, ce qui exclut l’octroi de la qualité d’auteur à une entité non humaine(cf. art. 6 LDA) :

2. L’exclusion de l’IA en tant qu’auteur : constats suisses et comparés

L’arrêt Thaler rendu aux États-Unis en mars 2025 illustre bien cette exclusion. Le juge y rappelle que l’auteur au sens du Copyright Act de 1976 doit être un être humain. En l’espèce, l’œuvre « A Recent Entrance to Paradise » générée par une IA ne pouvait être enregistrée, le requérant ayant désigné l’IA comme unique auteur​.

Cette approche a un écho en Suisse : l’IA, en tant qu’entité non humaine, ne peut être considérée comme auteur au sens de la LDA. L’Office fédéral de la justice (OFJ), dans son analyse juridique de 2024 (file:///C:/Users/phe48/Downloads/Analyse%20juridique%20(6).pdf), confirme que « la législation actuelle ne permet pas d’attribuer la qualité d’auteur à une IA » et qu’une évolution législative serait nécessaire pour envisager une telle hypothèse​.

3. La question de l’auteur humain en cas d’utilisation d’une IA

Reste une hypothèse centrale : un humain utilisant un système d’IA peut-il être considéré comme l’auteur du contenu généré, et à quelles conditions ? Cette possibilité est admise, mais sous condition stricte que l’humain exerce un contrôle créatif réel sur le processus génératif.

Il convient de distinguer différents degrés d’intervention humaine : l’auteur du modèle (développeur), l’utilisateur du système (prompt engineer) et l’auteur du dataset (curateur de données)​. Seul l’utilisateur qui oriente suffisamment la génération, en lui imprimant une empreinte personnelle et en exerçant un véritable choix créatif, pourrait être reconnu comme auteur. Si l’IA fonctionne de manière autonome sans apport substantiel humain, aucune protection par le droit d’auteur ne peut être revendiquée. Dit autrement, l’output généré par une IA pourrait faire l’objet d’une protection si et seulement si un être humain a déterminé de manière décisive les éléments originaux de l’œuvre.

4. Le critère d’originalité : obstacle fondamental à la protection automatique

La protection des outputs d’IA achoppe souvent sur la notion d’originalité. La jurisprudence et la doctrine suisse exigent une « individualité » de l’œuvre qui manifeste une démarche propre à l’auteur. Cela implique une liberté de création et un apport personnel. Or, dans le cas d’une IA générative, l’originalité découle souvent d’un processus statistique, déterminé par un algorithme entraîné sur des données massives, sans que l’on puisse identifier un apport créatif personnel du concepteur ou de l’utilisateur.

La distinction entre IA assistée et IA autonome : si l’IA assiste un humain qui reste maître de la création, la protection est envisageable. En revanche, si l’IA crée de manière largement autonome, sans intervention humaine déterminante, l’œuvre ne saurait être protégée en droit suisse​.

5. Vers un besoin de législation ou d’interprétation évolutive ?

L’état actuel du droit suisse ne permet pas de reconnaître une protection systématique des outputs d’IA. Néanmoins, plusieurs voix appellent à une adaptation législative. L’OFJ reconnaît que l’absence de protection peut créer des insécurités juridiques, notamment dans les secteurs culturels et technologiques. Il évoque la possibilité d’une réforme future qui permettrait de protéger certaines créations algorithmiques dans des cas encadrés, par exemple via un droit voisin sui generis​.

Certains mettent en garde contre les effets pervers d’une absence de protection, notamment dans les domaines où l’innovation repose sur l’exploitation d’outputs générés par l’IA. Ils proposent une reconnaissance indirecte des droits, par le biais de licences contractuelles ou de régimes sectoriels spécifiques​.

Conclusion

À ce jour, en droit suisse, un contenu généré de manière autonome par une IA ne peut pas bénéficier de la protection du droit d’auteur. L’absence d’apport intellectuel humain exclut la satisfaction du critère fondamental de création de l’esprit. Toutefois, lorsque l’intervention humaine est déterminante — notamment par l’orientation de l’IA ou la sélection des outputs —, une protection demeure possible à condition que l’œuvre manifeste une individualité suffisante.

L’avenir du droit d’auteur face à l’IA pourrait passer par une évolution de la jurisprudence, mais aussi, plus vraisemblablement, par une réforme législative. En attendant, les utilisateurs et développeurs d’IA devront recourir à des mécanismes alternatifs (contrats, droits voisins, marques) pour protéger leurs intérêts économiques liés aux créations générées par l’IA.

Me Philippe Ehrenström, avocat, LLM

Publié dans droit d'auteur, intelligence artificielle | Tagué , , , | Laisser un commentaire

Les données d’entraînement des LLM sont-elles protégées par le droit d’auteur ?

Introduction

L’entraînement des modèles de langage de grande taille (LLM – Large Language Models), comme GPT, repose sur l’ingestion massive de contenus textuels et multimédias issus d’Internet. Cette pratique soulève des questions fondamentales en droit d’auteur : les œuvres ainsi utilisées bénéficient-elles d’une protection ? L’entraînement constitue-t-il une exploitation juridique de ces œuvres ? Et surtout : faut-il maintenir ou adapter les règles actuelles de droit d’auteur face à ces nouveaux usages ?

Ce débat oppose (très schématiquement) deux grandes écoles : l’une qui défend la soumission de l’entraînement des IA au droit d’auteur, l’autre qui conteste la pertinence de cette approche, arguant d’un usage qui serait conceptuellement et techniquement distinct de l’exploitation classique d’une œuvre.

I. Les fondements de la protection des données d’entraînement : l’approche classique du droit d’auteur

A. Caractère protégeable des œuvres utilisées

La plupart des données utilisées pour entraîner les LLM proviennent de sources accessibles sur Internet : livres, articles, scripts, discussions en ligne, documents audiovisuels, etc. Une large part de ces contenus remplit les conditions de protection par le droit d’auteur. En Suisse, l’article 2 alinéa 1 de la LDA (https://www.fedlex.admin.ch/eli/cc/1993/1798_1798_1798/fr) prévoit que toute création de l’esprit ayant un caractère individuel est protégée. Il n’est pas nécessaire que l’œuvre soit publiée ou qu’elle ait une valeur esthétique.

Il en va de même dans les systèmes européens (critère d’originalité tel que précisé par la CJUE dans Infopaq, Football Dataco ou Painer), ou américains (critère de « minimal creativity » défini dans Feist). Ainsi, l’essentiel des textes utilisés dans les jeux de données – notamment ceux récupérés via des techniques ede web scraping – relèverait du champ du droit d’auteur.

B. L’acte de reproduction en cause

L’entraînement d’un LLM consiste à copier et traiter ces contenus pour en extraire des régularités linguistiques et statistiques. Même si le but n’est pas la restitution fidèle du contenu, des copies temporaires et permanentes sont générées lors du processus d’entraînement : téléchargement, parsing, tokenisation, vectorisation, etc.

On peut d’abord soutenir que ces actes constituent des reproductions au sens de l’article 10 al. 2 let. a LDA, peu importe qu’il s’agisse de copies transitoires ou que l’œuvre ne soit plus perceptible dans le modèle final (et elle peut l’être dans certaines circonstanxes…)​. De plus, l’intention (scientifique, commercial, technique) est indifférente dès lors qu’il y a reproduction technique d’un contenu protégé.

C. Une protection renforcée par l’absence d’exception

La LDA prévoit certaines exceptions aux droits d’auteur, mais elles sont restreintes. L’article 24d introduit une exception pour le « text and data mining » (TDM), uniquement à des fins de recherche scientifique. Or, les principaux usages industriels (entraînement par des entreprises technologiques, commercialisation de modèles, exploitation via des API) ne sont pas couverts​. Il en va de même pour l’exception de copie transitoire (art. 24a LDA), qui n’est pas applicable dès lors que la copie a une valeur économique indépendante.

Ainsi, dans l’état actuel du droit suisse, l’utilisation d’œuvres protégées pour entraîner un LLM nécessiterait le consentement des titulaires de droits ou une modification législative.

II. L’approche critique : les arguments contre la protection des données d’entraînement

En réaction à cette approche classique, plusieurs auteurs – notamment Rosenthal et Veraldi – développent une position critique, remettant en cause la pertinence de l’application du droit d’auteur à l’entraînement des IA​. Leurs arguments sont de plusieurs ordres : techniques, fonctionnels, économiques et conceptuels, dont ceux-ci :

A. Absence de jouissance humaine de l’œuvre

Rosenthal avance que le droit d’auteur protège les utilisations qui permettent une jouissance humaine de l’œuvre (lecture, écoute, visualisation). Or, dans le cadre de l’entraînement d’un LLM, il n’y a pas de restitution à destination d’un public, mais uniquement un traitement statistique du langage.

L’œuvre est analysée, fragmentée, réduite à des tokens, puis transformée en associations de paramètres. Ce processus ne vise ni la représentation, ni la communication de l’œuvre en tant que telle. L’utilisateur final du LLM n’accède jamais au contenu original.

B. Le modèle n’enregistre pas les œuvres

Le modèle final n’est pas une base de données d’œuvres, mais une fonction mathématique (un réseau de neurones) qui encode des probabilités linguistiques. La plupart des œuvres « disparaissent » au terme du processus (effet de dilution ou fading).

Selon cette vision, il n’y aurait pas de reproduction persistante, mais une extraction de connaissance linguistique – ce que Rosenthal compare à l’apprentissage humain : un individu lit des textes, en retient les règles grammaticales et le style, sans être accusé de contrefaçon pour cela.

C. Théorie de l’irrelevance juridique

Dans cette perspective, l’entraînement n’est pas un acte juridiquement pertinent au sens du droit d’auteur. Il ne s’agit pas d’une exploitation au sens économique ou culturel du terme. Cette approche rejoint une certaine philosophie du copyright américain, où l’on distingue les usages qui nuisent au marché de l’œuvre de ceux qui relèvent de la liberté de création, de recherche ou d’innovation (cf. doctrine du fair use).

D. Objection au monopole informationnel

Rosenthal insiste également sur les risques d’extension indue du champ du droit d’auteur : si tout traitement de texte était soumis à autorisation, y compris des traitements purement statistiques, le droit d’auteur deviendrait un obstacle à la liberté d’information et à l’innovation.

Cette crainte rejoint la doctrine américaine critique du copyright expansionniste, qui voit dans certaines revendications des ayants droit une tentative de contrôle excessif de la circulation de la connaissance.

III. Tentatives de conciliation : exceptions, licences collectives, régulation sectorielle

Face à cette tension, plusieurs solutions intermédiaires sont envisagées.

A. Les exceptions pour TDM en Europe

La directive européenne 2019/790 (https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=celex%3A32019L0790) a ouvert la voie à une exception pour le TDM (Text and Data Mining) à des fins commerciales (art. 4), mais avec un opt-out possible par les titulaires de droits. Cette exception permet d’utiliser des œuvres librement accessibles pour entraîner des modèles, sauf si les ayants droit s’y opposent explicitement et lisiblement par machine.

Cette approche ménage les intérêts de l’innovation et ceux des créateurs, tout en permettant une régulation flexible. La Suisse pourrait s’en inspirer, en étendant son propre art. 24d LDA et en adaptant l’opt-out de l’art. 43a (licence collective étendue).

B. La licence collective étendue : une voie suisse ?

L’article 43a LDA pourrait permettre d’organiser une gestion collective des droits en matière d’entraînement IA​. Cela permettrait de centraliser les autorisations, tout en garantissant une rémunération et une possibilité d’opt-out aux ayants droit.

Une telle solution nécessiterait une reconnaissance explicite du besoin de légiférer, mais pourrait offrir un compromis efficace, tout en préservant la sécurité juridique.

IV. La perspective américaine : le fair use à l’épreuve

Aux États-Unis, l’entraînement des modèles d’IA est actuellement soumis à de multiples contentieux. Le sort de ces affaires pourrait redessiner l’équilibre global :

Un des critères est ici le caractère transformateur de l’usage : un usage est « fair » s’il modifie le sens, la finalité ou la fonction de l’œuvre d’origine. L’entraînement d’un LLM pourrait être considéré comme transformateur, à condition de ne pas reproduire les œuvres telles quelles.

Conclusion

La question de la protection des données d’entraînement des LLM par le droit d’auteur cristallise un débat fondamental entre protection de la création et liberté d’innovation.

D’un côté, l’approche classique défend l’idée que toute copie d’une œuvre soumise au droit d’auteur doit être protégée, même à des fins techniques. De l’autre, une vision émergente remet en cause la pertinence du droit d’auteur pour réguler des usages non expressifs, non destinés au public, et fondamentalement transformateurs.

La solution réside sans doute dans une approche graduée : exceptions ciblées, licences collectives, mécanismes d’opt-out, voire création d’un nouveau régime sui generis pour les données d’entraînement. Car le véritable défi est désormais celui de la régulation de l’intelligence artificielle comme infrastructure de connaissance, et non simplement comme produit technologique.

(Voir notamment Y. Benhamou/A. Andrijevic, Intelligence artificielle générative d’images er droit d’auteur, in : A. Richa/ D. Canapa (éds), Aspects juridiques de l’intelligence artificielle, Lausanne – Berne 2024, p. 41-85 ; D. Rosenthal / L. Veraldi, Training Ai language models with third-party content and date from a legal perspective, in : Jusletter IT 25 march 2025.)

Me Philippe Ehrenström, avocat, LLM

Publié dans droit d'auteur, intelligence artificielle | Tagué , , , , | Un commentaire

Le recrutement algorithmique en droit social français

Dans une étude récemment publiée dans La Semaine Juridique – Social (n°13, 1er avril 2025) [Le recrutement algorithmique], le Professeur Laurent Gamet se penche sur le développement du recours aux algorithmes dans les processus de recrutement et les enjeux qu’ils soulèvent en droit français. Lorsqu’un employeur a recours à un traitement automatisé de données personnelles – ce qui est le cas dans presque tous les dispositifs de recrutement algorithmique actuels, qu’il s’agisse de tri de CV, d’analyse sémantique, ou de matching automatisé, quels sont les obligations qui s’imposent à lui et quels sont les droits de la personne concernée ? L’auteur se concentre particulièrement sur les trois thèmes suivants : transparence et finalité du traitement, décision entièrement automatisée et risque de discrimination.

Premier pilier de l’analyse : la question de la transparence et de la finalité des traitements algorithmiques. L’auteur rappelle l’exigence de la base juridique au traitement sur la base du RGPD et l’acuité particulière du principe de minimisation. Les art. L. 1221-8 et 1221-9 du Code du travail, relatifs au recrutement, s’appliquent également : information des candidats ;  pertinence des critères, méthodes et techniques au regard des finalités poursuivies.

Mais la transparence ne se limite pas à une simple mention dans une politique de confidentialité : encore faut-il que les finalités du traitement soient claires, que les candidats sachent à quoi sert l’algorithme, et comment il intervient dans la prise de décision. Cela implique notamment de dire si l’outil se contente de fournir une aide à la décision, ou s’il participe activement à l’évaluation des candidatures. Or, dans la pratique, cette transparence reste souvent toute théorique. Les employeurs doivent assumer une obligation de loyauté et d’intelligibilité. Il ne suffit pas de se retrancher derrière un fournisseur de solution technologique ou l’argument de la Black Box : l’entreprise demeure responsable de l’utilisation qu’elle fait de l’outil algorithmique, y compris vis-à-vis des candidats non retenus.

Deuxième axe de l’étude : le régime applicable aux décisions fondées exclusivement sur un traitement algorithmique. Ici encore, le RGPD apporte un cadre juridique strict, qui trouve une résonance directe en droit du travail. L’article 22 du Règlement interdit, sauf exceptions, les décisions individuelles produisant des effets juridiques sur une personne (ou l’affectant de manière significative) si elles sont prises uniquement sur le fondement d’un traitement automatisé. L’exception serait ici celle la décision nécessaire à l’exécution d’un contrat entre la personne concernée et un responsable de traitement dans le cadre d’un grand nombre de candidatures (art. 22 (2) let. a RGPD). La personne concernée a alors le droit de faire revoir la décision par un humain. Cela suppose que l’intervention humaine ne soit pas purement formelle ou cosmétique, mais qu’elle permette réellement d’interpréter les résultats de l’algorithme, de les nuancer, et de prendre du recul. Le candidat a aussi le droit d’accéder à la logique sous-jacente à la décision automatisée.

Troisième volet : le risque de discrimination algorithmique. Cela concerne les risques de discrimination générés ou renforcés par les systèmes algorithmiques. Loin d’être neutres, ces outils peuvent intégrer, reproduire, voire amplifier les biais sociaux et discriminations déjà présents dans les données utilisées pour l’entraînement. Un algorithme entraîné sur des décisions humaines, prises dans un contexte social donné, risque fort de reconduire les préférences historiques qui s’y trouvent : survalorisation de certains diplômes, de certaines zones géographiques, voire de certains prénoms.

Un tri automatique fondé sur des critères apparemment neutres peut en réalité avoir un effet disproportionné sur certaines catégories protégées (genre, origine, âge…). Et comme l’algorithme n’explique pas ses choix, ou que ses paramètres restent opaques, il devient très difficile pour une victime potentielle de prouver une atteinte à ses droits.

Pour les avocats suisses, la très intéressante et pédagogique étude de Laurent Gamet a une double portée : elle offre un aperçu précis de la manière dont le droit social français s’approprie la révolution algorithmique, et elle fournit des repères utiles pour réfléchir à l’évolution du droit du travail helvétique. À l’heure où les pratiques de recrutement s’uniformisent à l’échelle transfrontalière, il devient essentiel de penser une protection juridique qui ne soit pas en retard sur la technologie, mais qui sache au contraire en canaliser les usages, au service de l’équité, de la transparence, et de la dignité au travail, mais aussi de la défense bien comprise des intérêts des recruteurs.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , , | Laisser un commentaire