L’implication humaine dans les systèmes de modération de contenus en ligne

Emmanuel Vargas Penagos analyse les obligations juridiques découlant du droit de l’Union européenne en matière d’implication humaine dans les systèmes de modération de contenus en ligne (Platforms on the hook? EU and human rights requirements for human involvement in content moderation, Cambridge Forum on AI: Law and Governance (2025), 1, e23, 1–27, doi:10.1017/cfl.2025.3). L’étude se focalise sur l’interaction entre la législation secondaire de l’UE, en particulier le Digital Services Act (DSA), et les garanties offertes par les droits humains, notamment la liberté d’expression. L’auteur adopte une approche structurée, en répondant à quatre questions successives : les raisons de l’implication humaine dans la modération, les différentes formes que peut prendre cette implication, les exigences concrètes du droit de l’UE, et enfin, l’interprétation de ces normes à la lumière des principes issus des droits fondamentaux.

Dans un premier temps, l’article revient sur les raisons qui justifient l’implication humaine dans la modération de contenu. L’automatisation s’est développée comme réponse au volume écrasant d’informations diffusées en ligne, les plateformes ne pouvant matériellement pas assurer une surveillance exclusivement humaine. Toutefois, cette automatisation soulève plusieurs problèmes. D’un point de vue technique, les outils algorithmiques peinent à saisir le contexte, les subtilités linguistiques et culturelles, et s’avèrent peu fiables en cas de décalage entre les données d’entraînement et les contenus réels. D’un point de vue humain, les modérateurs exposés à des contenus traumatisants subissent une charge psychologique importante. Mais au-delà de ces considérations pratiques, des motifs éthiques et juridiques justifient la présence humaine : la nécessité de corriger les biais des systèmes, d’intervenir en cas de dysfonctionnement, d’assurer la responsabilité et la transparence des décisions, de protéger la dignité des personnes, et de permettre une réponse contextuelle aux situations complexes. Ces justifications sont soutenues par plusieurs acteurs internationaux qui insistent sur la nécessité de prévoir des mécanismes de révision humaine des décisions automatisées pour garantir les droits fondamentaux.

La deuxième partie de l’article explore les formes que peut prendre l’implication humaine dans les systèmes de modération. L’auteur distingue trois grandes catégories : l’intervention humaine à chaque étape de la décision (human-in-the-loop), la supervision humaine avec faculté d’arrêt (human-on-the-loop), et enfin une gouvernance humaine globale sur l’ensemble du processus (human-in-command). Ces catégories s’inscrivent dans des structures de modération très variées selon les plateformes. Certaines combinent des outils de détection automatisée avec des modérateurs spécialisés et des voies de recours internes et externes. D’autres reposent davantage sur des modérateurs bénévoles assistés par des outils simples. L’article souligne également que l’implication humaine peut intervenir à différents stades du cycle de modération : au moment de la conception des outils (formation et ajustement des algorithmes), dans la détection initiale, dans la prise de décision, dans l’examen des recours, ou encore dans le retour d’expérience servant à améliorer les modèles. Cette diversité rend difficile toute tentative d’uniformisation, et appelle une approche différenciée selon le contexte.

La troisième partie de l’étude expose les exigences concrètes du droit européen, en particulier celles issues du RGPD, du DSA et de législations sectorielles. L’article 22 du RGPD interdit en principe les décisions fondées exclusivement sur un traitement automatisé produisant des effets juridiques ou significativement similaires, sauf en cas s’exceptions prévues par le règlement et si des garanties appropriées sont prévues. Cette disposition s’applique aux décisions de modération de contenu, dans la mesure où celles-ci affectent les droits contractuels des utilisateurs ou la visibilité de leurs publications. Le DSA ne proscrit pas l’usage d’outils automatisés mais impose une série d’obligations encadrant leur utilisation : obligation de transparence, de diligence, d’objectivité et de non-discrimination dans la prise de décision, ainsi que la mise en place d’un mécanisme de réclamation interne non entièrement automatisé. L’intervention humaine est explicitement requise dans ce mécanisme de recours, qui doit être supervisé par un personnel qualifié. En parallèle, des instruments spécifiques viennent compléter ce cadre général. La directive sur le droit d’auteur impose une revue humaine des décisions de retrait de contenu fondées sur les droits d’auteur. Le règlement TERREG, en matière de lutte contre le terrorisme, exige que tout recours à des outils automatisés soit assorti de garanties adéquates, notamment une supervision humaine. Quant au European Media Freedom Act, il impose des garanties renforcées pour les contenus issus de médias professionnels, en prévoyant un droit de réponse préalable et un traitement prioritaire des recours, ce qui suppose implicitement une implication humaine qualifiée.

Enfin, l’auteur propose une lecture de ces exigences à la lumière des droits fondamentaux, notamment de l’article 10 CEDH relatif à la liberté d’expression. Le DSA s’inscrit dans une volonté de créer un environnement numérique sûr, prévisible et respectueux des droits. L’implication humaine est ici conçue comme une garantie procédurale essentielle à cet objectif. Cette garantie ne saurait se limiter à une formalité ou à un contrôle symbolique : elle doit se traduire par une organisation concrète des ressources humaines, tant en termes de nombre que de compétence et d’autorité décisionnelle. Trois principes guident cette approche.

Le premier est celui de la diligence. La mise en œuvre des mécanismes de modération doit répondre à un standard de prudence et de professionnalisme adapté à la taille et aux capacités de la plateforme. Cela implique un investissement proportionné dans la formation des modérateurs et dans l’amélioration continue des outils automatisés. Le deuxième principe est celui d’objectivité et de non-discrimination. Les décisions doivent être fondées sur des critères clairs, cohérents et appliqués de manière équitable, sans reproduire ou accentuer les biais sociaux ou culturels. L’intervention humaine est ici essentielle pour contextualiser les cas limites et garantir un traitement équitable. Enfin, le principe de responsabilité suppose que les décisions puissent être justifiées, contestées et révisées par un personnel qualifié, en dehors des seules procédures algorithmiques. L’implication humaine devient ainsi un vecteur de transparence, de redevabilité et de correction des erreurs systémiques.

En conclusion, l’article met en évidence que le droit européen n’impose pas une présence humaine constante dans tous les actes de modération, mais requiert que celle-ci soit organisée de manière ciblée, cohérente et juridiquement encadrée. Cette implication humaine doit être conçue non comme un simple garde-fou symbolique, mais comme un pilier essentiel de la protection des droits fondamentaux dans l’environnement numérique. Elle appelle à une gouvernance renouvelée de la modération, combinant efficacité technologique et garanties procédurales substantielles.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Formation des employés à l’intelligence artificielle (IA): obligation, contenu, destinataires

L’art. 4 du « Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) prévoit que les « (…) fournisseurs et les déployeurs de systèmes d’IA prennent des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l’IA pour leur personnel et les autres personnes s’occupant du fonctionnement et de l’utilisation des systèmes d’IA pour leur compte, en prenant en considération leurs connaissances techniques, leur expérience, leur éducation et leur formation, ainsi que le contexte dans lequel les systèmes d’IA sont destinés à être utilisés, et en tenant compte des personnes ou des groupes de personnes à l’égard desquels les systèmes d’IA sont destinés à être utilisés. »

La Commission a publié un Q&A qui donne des précisions sur le cercle des personnes concernées, le contenu des formations, etc. :

Bien évidemment, la Suisse n’est pas soumise au Règlement sur l’intelligence artificielle, et n’entendra pas l’être à l’avenir, mais ce document donne des indices et des clés pour mettre en œuvre la formation des employés à l’IA, formation dont l’obligation découle déjà en droit suisse du droit de la protection des données et du pouvoir de direction de l’employeur.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , , , , , | Laisser un commentaire

Utilisation de l’intelligence artificielle par des avocats : informer les Confrères et le juge ?

Les cas d’hallucinations dans des écritures produites en justice sont légion aux Etats-Unis depuis Mata v. Avianca, Inc., No. 1:2022cv01461 – Document 54 (S.D.N.Y. 2023). Ce qui est intéressant dans Lacey v. State Farm (C.D. Cal., mai 2025) (Case No. 24-5205 FMO (MAAx)) (https://digitalcommons.law.scu.edu/cgi/viewcontent.cgi?article=3920&context=historical), c’est que le dossier implique deux Etudes, et que la décision traite plus particulièrement du devoir d’information quant à l’utilisation de l’IA envers les Confrères et le juge.

Dans une affaire civile opposant une ancienne magistrate californienne à sa compagnie d’assurance, un juge fédéral américain, désigné comme « Special Master », avait été chargé de superviser un différend relatif à la communication de documents confidentiels. À cette occasion, la demanderesse a déposé un mémoire destiné à convaincre le juge d’imposer la divulgation de certains échanges internes à l’assureur. Ce qui aurait pu être un épisode technique de procédure civile est devenu un cas d’école en matière d’usage de l’intelligence artificielle dans les pratiques judiciaires.

Très vite après réception du mémoire, le juge a constaté que plusieurs références à des arrêts judiciaires paraissaient douteuses, voire invérifiables. Il a entrepris de rechercher lui-même les décisions citées, sans succès. Alerté, il a demandé des explications aux avocats. Ceux-ci ont alors retiré certaines citations erronées et transmis une nouvelle version du mémoire, tout en restant silencieux sur la raison de ces erreurs.

Ce n’est que plus tard, dans le cadre d’une procédure formelle sur d’éventuelles sanctions, que la vérité a été établie : un avocat avait utilisé des outils d’intelligence artificielle pour produire un plan juridique initial, une sorte de « brouillon » de l’écriture. Ce plan contenait des résumés d’arrêts et des citations inventées ou inexactes, ce que l’avocat lui-même n’avait pas identifié comme tel. Il avait transmis ce plan tel quel à ses collègues d’un autre cabinet, sans leur préciser que l’origine des contenus était une IA. Ces derniers ont ensuite intégré des éléments du plan dans le mémoire final sans effectuer de vérifications.

Le juge a été clair : ce genre de pratique n’est pas acceptable. Selon lui, les outils d’IA actuels ne permettent pas de s’y fier aveuglément. Il n’est pas encore admissible de leur déléguer des tâches telles que la recherche ou la rédaction juridique sans validation humaine. Le problème n’était pas tant l’usage de l’IA en soi, que l’opacité entourant son emploi. Le juge a estimé que la combinaison de l’utilisation cachée d’un outil génératif, de l’absence de relecture rigoureuse et de la réponse trompeuse donnée lorsqu’il a relevé les erreurs, constituait un comportement assimilable à de la mauvaise foi.

Il a donc annulé purement et simplement le mémoire fautif. En conséquence, la demanderesse a perdu toute chance d’obtenir les documents qu’elle demandait. Pour renforcer l’effet dissuasif, le juge a ordonné aux deux cabinets d’avocats concernés de verser plus de trente mille dollars à la défense. Il a toutefois refusé de sanctionner individuellement les avocats, considérant que les fautes étaient collectives et qu’ils avaient fait preuve de remords sincères. La cliente, elle, n’a pas été rendue responsable.

Ce jugement a surtout mis en lumière une exigence croissante : la transparence dans l’usage de l’intelligence artificielle en contexte judiciaire. Le juge a rappelé qu’un avocat ne peut pas, même involontairement, tromper le tribunal en introduisant des éléments fictifs issus d’une IA sans le dire. Le devoir d’information ne concerne pas uniquement le juge. Il s’impose aussi entre avocats. Celui qui reçoit un document doit pouvoir savoir si l’analyse vient d’un juriste ou d’une machine. Le silence sur cette question expose non seulement à des sanctions disciplinaires, mais aussi à des conséquences concrètes pour le client.

Autrement dit, cette décision ne punit pas un avocat pour avoir utilisé une technologie, mais pour ne pas avoir dit qu’il l’avait fait, et pour avoir laissé d’autres en faire usage sans leur en donner les clés de lecture.

Me Philippe Ehrenström, avocat, LLM

Publié dans Avocats (règles professionnelles), intelligence artificielle | Tagué , , , | Laisser un commentaire

Les abeilles sont-elles des citoyennes comme les autres ?

Je vous avais déjà parlé ici de Nonhuman Rights Project Inc. v./ Cheyenne Mountain Zoological Society and Bob Chastain, Case no.24SA21, dans lequel de sympathiques éléphants plaidaient l’habeas corpus pour obtenir leur libération : https://droitdutravailensuisse.com/2025/01/23/lelephant-est-il-un-justiciable-comme-les-autres/.

Pure fantaisie anglo-saxonne ? Pas vraiment à en juger par le dossier des abeilles zurichoises :

Le 22 septembre 2024, la population suisse rejette à près de 63 % l’initiative populaire fédérale « Pour l’avenir de notre nature et de notre paysage » (dite « Initiative biodiversité »). À la suite de ce résultat, une citoyenne étrangère domiciliée à Zurich, B.A., et sa fille mineure A.A., déposent un recours auprès du Conseil d’État zurichois. Elles désignent également comme co-recourantes plusieurs espèces d’abeilles sauvages, appartenant à diverses familles (Seiden-, Sand-, Furchen-, Schmal-, Sägehorn-, Hosen-, Blattschneider-, Mörtel- et Echten Bienen), explicitement décrites comme « domiciliées en Suisse ». Le cœur de leur revendication repose sur la reconnaissance du droit de vote en matière environnementale pour les enfants et les abeilles, la nullité du scrutin du 22 septembre 2024 et l’organisation d’un nouveau vote intégrant ces nouveaux sujets de droit présumés.

Le Conseil d’État zurichois rejette la réclamation de la fille A.A. au motif de son absence de majorité et refuse d’entrer en matière sur la réclamation de la mère, faute de citoyenneté suisse. Il ne se prononce pas sur le fond des autres griefs, considérant notamment que la requête en lien avec les votations communales de Zurich ne relève pas de sa compétence.

Les recourantes saisissent alors le Tribunal fédéral en déposant un recours en matière de droit public, reprenant leurs demandes initiales, notamment l’octroi du droit de vote aux enfants et aux abeilles dans les questions environnementales. Le Tribunal fédéral commence par analyser la recevabilité du recours. Conformément à l’article 136 alinéa 1 de la Constitution fédérale (Cst.), les droits politiques au niveau fédéral sont réservés aux citoyens et citoyennes suisses âgés d’au moins 18 ans, non frappés d’incapacité. A.A., mineure au moment des faits, est donc en principe exclue du droit de vote. Toutefois, comme elle soutient qu’elle aurait dû pouvoir voter, le Tribunal fait preuve d’une certaine souplesse procédurale et entre à titre exceptionnel en matière. Il rejette néanmoins son recours au fond : la condition d’âge est une règle claire du droit positif, et l’aptitude au discernement, même revendiquée dans le domaine environnemental, ne saurait s’y substituer. Aucune disposition du droit fédéral ou international invoqué ne permet d’en déduire une dérogation.

S’agissant de la mère, le Tribunal constate qu’elle est majeure mais dépourvue de la nationalité suisse. Elle n’allègue pas que ce statut lui aurait été refusé à tort ni ne conteste son inéligibilité au droit de vote fédéral. Dès lors, il n’y a pas lieu d’entrer en matière sur ses griefs. Le Tribunal en conclut que ni la mère ni la fille ne sont recevables à déposer une plainte en matière d’abstention ou d’irrégularité du scrutin au sens des dispositions du droit fédéral.

Le point le plus insolite du recours réside toutefois dans la prétention à reconnaître aux abeilles sauvages un droit de vote dans les affaires environnementales. Le Tribunal fédéral se penche expressément sur cette partie du recours. Il rappelle que les animaux ne sont pas des sujets de droits. Cela signifie qu’ils ne peuvent être porteurs de droits subjectifs, donc qu’ils ne sont ni titulaires de droits fondamentaux, ni capables de faire valoir des prétentions juridiques en leur propre nom. Les abeilles, aussi importantes soient-elles pour la biodiversité ou l’écosystème, n’ont donc pas la qualité de sujet de droit politique. Cette position est cohérente avec la doctrine dominante et l’état actuel du droit suisse, qui reconnaît une protection accrue des animaux (notamment dans le cadre de la législation sur la protection des animaux), mais ne leur confère aucun statut de sujet de droit au sens propre. Le Tribunal souligne que les abeilles ne peuvent être porteuses ni d’un droit de recours, ni d’un droit de vote, ni d’aucune autre prérogative juridique permettant de participer aux processus démocratiques.

En outre, les recourantes sollicitent divers actes de procédure accessoires, tels que la désignation de sachants en environnement, la mise en place d’un échange d’écritures ou encore l’usage d’un langage « interspécifiquement inclusif et libéré de toute forme de spécisme ». Le Tribunal fédéral rejette ces demandes, soit comme irrecevables, soit comme manifestement dénuées de pertinence juridique. Il indique par ailleurs qu’il se réserve à l’avenir le droit de ne plus entrer en matière sur des recours de cette nature, qu’il pourrait classer d’emblée sans suite, en vertu de son pouvoir de filtrage.

Ainsi, par cet arrêt, le Tribunal fédéral affirme notamment de manière claire et catégorique les limites du champ d’application des droits politiques dans l’ordre juridique suisse. Il rappelle que seuls les êtres humains, citoyens suisses, majeurs et capables, peuvent être sujets de ces droits. La demande de conférer des droits politiques à des mineurs ou à des animaux, si elle soulève un débat de société légitime sur la représentation des intérêts des générations futures et de la nature, relève à ce stade d’une démarche militante sans ancrage dans le droit positif. Le droit fondamental à un environnement sain, bien que de plus en plus évoqué dans la doctrine et certains forums politiques, ne saurait encore fonder une transformation du corps électoral sans révision constitutionnelle explicite.

Sources : TF 1C_607/2024 du 16 avril 2025 – http://relevancy.bger.ch/php/aza/http/index.php?lang=de&type=show_document&highlight_docid=aza://16-04-2025-1C_607-2024&print

Commentaire : Camille de Salis, L’absence de droit de vote des mineurs et des abeilles, in: https://lawinside.ch/1577/

Me Philippe Ehrenström, avocat, LLM

Publié dans Animaux, Libertés | Tagué , , , | Laisser un commentaire

L’envoi de données médicales de salariés sur une adresse email partagée

La décision 10112709 prise le 30 janvier 2025 par le Garante per la protezione dei dati personali concerne un incident de communication de données sensibles au sein d’un hôpital public, plus précisément le partage involontaire d’informations sur le statut vaccinal de deux employés sur une adresse email partagée (décision : https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/10112709).

Les faits à l’origine de cette affaire sont les suivants :

Une salariée d’un établissement hospitalier public situé à Turin a saisi le Garante d’une plainte après avoir reçu, sur la boîte mail partagée de son service, un courriel émis par le service du personnel. Ce message contenait des informations sur sa propre situation vaccinale (COVID) et sur celle d’un collègue non vacciné, suspendu pour cette raison. Cette boîte mail, utilisée par plusieurs membres du service du délégué à la protection des données (DPO), permettait donc à chacun d’eux de consulter le contenu du message et ainsi de connaître les données sensibles de leurs collègues. L’employée a considéré que cela constituait une communication illicite de données personnelles.

Le Garante a étudié attentivement le déroulement des faits, les textes applicables, et les arguments de défense présentés par l’établissement concerné. Son raisonnement s’appuie en premier lieu sur les règles générales de protection des données prévues par le Règlement général européen sur la protection des données (RGPD), ainsi que par le Code italien de la protection des données. Ces textes imposent que les données à caractère personnel soient traitées uniquement lorsque cela est nécessaire et fondé sur une base légale claire. Le traitement des données sensibles, telles que les données de santé, doit faire l’objet de précautions supplémentaires, tant sur le fond (motif légitime et prévu par la loi) que sur la forme (modalités de traitement, personnes autorisées, sécurité).

Dans le cas présent, le Garante a considéré que le choix d’utiliser une adresse e-mail partagée, même pour des raisons pratiques ou d’urgence, ne répondait pas aux exigences de la réglementation. Le fait que les collègues aient pu prendre connaissance de leurs situations vaccinales respectives a été jugé inapproprié, car ces informations ne devaient être accessibles que par les personnes strictement habilitées à en connaître dans le cadre de leurs fonctions. La règle est claire : même au sein d’une organisation, des informations sensibles sur un salarié ne peuvent être partagées qu’avec les agents expressément autorisés, en lien direct avec le traitement concerné. La communication en cause, bien qu’interne, a été considérée comme une atteinte à la vie privée des deux intéressés.

Pour sa défense, l’hôpital a fait valoir plusieurs éléments. Il a notamment expliqué qu’il s’agissait d’un cas isolé, survenu en période de forte pression due à la pandémie de Covid-19, et que l’envoi de la communication visait à éviter une confusion liée à une homonymie entre les adresses e-mail des salariés. Il a également souligné que le contenu du message était bref, qu’il ne mentionnait pas expressément le Covid ni ne détaillait les raisons médicales de la suspension, et que l’erreur avait été commise de bonne foi, dans un contexte d’urgence, en soirée, à la veille des congés de Noël. Par ailleurs, des mesures correctrices ont été prises après coup, comme la création de nouvelles adresses électroniques « alias » plus sécurisées, et l’introduction de procédures internes renforcées.

Le Garante a pris en compte ces éléments d’atténuation. Il a reconnu que l’établissement avait collaboré loyalement durant l’instruction, et que l’incident était ponctuel. Néanmoins, il a estimé que ces arguments ne suffisaient pas à écarter la qualification de violation des règles de protection des données. En effet, selon lui, l’information aurait pu – et dû – être transmise par un autre canal, confidentiel, sans exposer deux salariés à une divulgation mutuelle de leurs informations médicales. Le Garante a rappelé à cette occasion que, depuis 2007, les lignes directrices en matière de protection des données des salariés précisent que les employeurs doivent empêcher que des informations sensibles circulent de manière non contrôlée, même à l’intérieur de l’administration.

Le Garante a ainsi conclu à l’existence d’un traitement illicite des données, en violation notamment des articles 5, 6 et 9 du RGPD. L’établissement, bien que dans son rôle de vérification des obligations vaccinales imposées par la loi en période de pandémie, aurait dû mettre en place des mesures techniques et organisationnelles appropriées pour éviter cette communication indue. À cet égard, la responsabilité du choix du canal de communication incombe clairement au responsable du traitement, c’est-à-dire ici à l’administration hospitalière.

La sanction prononcée est une amende administrative de 6.000 euros. Ce montant tient compte de plusieurs facteurs, notamment la portée limitée de la violation (deux personnes concernées), l’absence d’intention malveillante, le contexte exceptionnel lié à la gestion de l’urgence sanitaire, la coopération de l’établissement pendant l’instruction, mais aussi l’existence d’antécédents en matière de non-conformité aux règles de protection des données, même s’ils concernaient d’autres domaines. La décision prévoit également que l’ordonnance soit publiée sur le site du Garante, en raison de la sensibilité des données en cause et de l’intérêt à sensibiliser les organismes publics sur ces pratiques.

En résumé, cette affaire met en lumière la vigilance que doivent observer les employeurs – publics comme privés – dans le traitement des données personnelles de leurs salariés, surtout lorsqu’il s’agit d’informations de santé. Elle rappelle que la bonne foi ne suffit pas à exclure la responsabilité juridique d’un traitement mal encadré. L’utilisation d’outils numériques courants, comme les boîtes mail partagées, doit faire l’objet d’une attention rigoureuse, et être accompagnée de procédures strictes pour garantir la confidentialité des données.

Me Philippe Ehrenström, avocat, LLM

Publié dans Protection des données, RGPD | Tagué , , , | Laisser un commentaire

Les effets de l’IA générative sur le marché du travail : tempête ou verre d’eau ?

L’étude menée par Anders Humlum et Emilie Vestergaard, Large Language Models, Small Labor Market Effects, publiée le 1er mai 2025 par le Becker Friedman Institute de l’Université de Chicago (Working Paper No. 2025-56), analyse les effets concrets des chatbots d’intelligence artificielle générative sur le marché du travail. À contre-courant des discours alarmistes ou triomphants sur une transformation imminente de l’emploi, cette recherche empirique fondée sur des données massives d’adoption et des statistiques administratives apporte un éclairage nuancé, voire déconcertant : malgré une adoption rapide et des investissements substantiels des entreprises, les effets économiques observables restent pour l’instant quasi inexistants.

L’étude s’appuie sur deux vagues d’enquêtes représentatives réalisées au Danemark fin 2023 et 2024, portant sur plus de 25 000 travailleurs répartis dans 7 000 entreprises et couvrant 11 professions exposées à l’IA générative, telles que les ressources humaines, le journalisme, le développement logiciel ou encore l’enseignement. Ces données sont croisées avec des registres administratifs détaillés, permettant de suivre l’évolution des salaires, des heures travaillées et de la mobilité professionnelle des répondants.

Le Danemark, avec son marché du travail flexible, sa culture numérique avancée et son infrastructure statistique robuste, constitue un terrain d’observation idéal pour une telle étude. L’objectif des auteurs est de mesurer non seulement l’adoption des outils d’IA, mais aussi leurs répercussions concrètes sur les conditions de travail et sur les variables économiques individuelles et collectives.

La première partie de l’étude s’intéresse à l’adoption des chatbots par les salariés et aux politiques des entreprises en la matière. On y observe un changement majeur depuis les débuts hésitants de l’IA générative : les employeurs danois sont désormais massivement engagés dans cette transition technologique. Près de la moitié des travailleurs sont encouragés à utiliser ces outils ; 38 % des entreprises déploient des modèles internes, souvent adaptés à leur propre contexte métier, et 30 % organisent des formations à l’usage de ces technologies. Cette dynamique est décisive : dans les entreprises qui encouragent activement l’usage des chatbots, le taux d’adoption atteint 83 %, contre seulement 47 % dans celles qui ne les promeuvent pas. En outre, ces initiatives permettent de réduire les inégalités d’accès.

La seconde partie de l’étude se penche sur les effets de l’IA générative sur les processus de travail. De nombreux utilisateurs déclarent que les chatbots leur permettent de gagner du temps – en moyenne 25 minutes par jour d’usage – et d’améliorer la qualité de leur travail ou leur créativité. Toutefois, ces bénéfices sont modérés : en moyenne, les gains de temps représentent seulement 2,8 % du temps de travail total. Cette estimation contraste fortement avec les résultats des expériences contrôlées (RCTs) menées dans des contextes très favorables, où les gains de productivité peuvent dépasser 15 %, voire 50 % dans certains cas. Les auteurs expliquent ce décalage par deux facteurs principaux : d’une part, l’hétérogénéité des tâches et des professions (toutes ne se prêtent pas également à l’usage des chatbots) ; d’autre part, le manque d’investissements complémentaires de la part des entreprises, comme la réorganisation des flux de travail, qui limite l’impact potentiel de la technologie.

Par ailleurs, l’étude met en évidence un phénomène souvent négligé : l’apparition de nouvelles tâches. Environ 8,4 % des travailleurs déclarent qu’ils ont commencé à exercer des fonctions inédites à la suite de l’introduction des chatbots – parfois sans même les utiliser eux-mêmes. Ces tâches concernent notamment l’intégration technique des outils, la supervision de leur usage, ou encore la régulation de leur conformité éthique et juridique. Cette dynamique de création de tâches s’étend à l’ensemble des professions étudiées et touche également les non-utilisateurs, ce qui signale un processus de transformation plus diffus du travail.

Cependant, la partie la plus frappante de l’étude réside dans l’absence d’effets significatifs sur les indicateurs économiques classiques. En mobilisant une approche rigoureuse de type différence-en-différences, les auteurs montrent que l’usage des chatbots n’a pas entraîné de variation mesurable sur les salaires, les heures travaillées, ou le maintien dans l’emploi. Les intervalles de confiance permettent même d’exclure des effets supérieurs à 1 %, et ce, dans toutes les professions étudiées. Même les utilisateurs précoces ou intensifs, qui rapportent pourtant des gains de temps et de qualité, n’ont vu aucune amélioration tangible de leur situation économique. Une analyse complémentaire fondée sur les politiques des entreprises – utilisées comme quasi-variations expérimentales – aboutit aux mêmes résultats.

Les chercheurs interrogent également les perceptions des travailleurs. À la question directe “les chatbots ont-ils affecté vos revenus ?”, 97 % des répondants répondent non. Pour ceux qui déclarent un impact, l’effet moyen perçu ne dépasse pas 0,2 %. Ces réponses confirment les données administratives et montrent que les travailleurs eux-mêmes ne s’attendent pas à des retombées économiques notables de leur usage de l’IA. Cela s’explique en partie par un mécanisme de pass-through très limité : seulement 3 à 7 % des gains de productivité se répercutent sur les revenus, essentiellement dans les entreprises qui investissent activement dans l’adoption de l’IA.

Enfin, l’étude élargit l’analyse à l’échelle des entreprises. Elle examine si les établissements où les taux d’adoption sont élevés ont connu des changements en matière d’emploi total, de masse salariale ou de composition du personnel. Là encore, les résultats sont nuls. Aucune restructuration significative n’est observable. Même les travailleurs non-utilisateurs dans ces entreprises ne rapportent pas d’évolution de leurs conditions économiques. Ces constats vont à l’encontre des hypothèses d’un effet d’éviction rapide ou d’une substitution massive du travail humain.

Dans l’ensemble, les auteurs concluent que l’IA générative, en dépit de son adoption spectaculaire, n’a pas encore produit de rupture sur le marché du travail. Cette situation rappelle la célèbre observation de Robert Solow sur l’informatisation : “On voit l’âge de l’ordinateur partout, sauf dans les statistiques de productivité.” Toutefois, cette stagnation apparente pourrait n’être que temporaire. Plusieurs mécanismes identifiés dans l’étude – comme l’importance des investissements complémentaires ou l’apparition de nouvelles tâches – laissent penser que l’impact réel de l’IA se fera sentir à plus long terme, lorsque les organisations auront restructuré leur manière de travailler autour de ces outils.

En définitive, cette étude réfute l’idée d’une transformation immédiate et massive de l’emploi par l’intelligence artificielle. Elle met en lumière le décalage entre les promesses technologiques et leurs effets économiques concrets, tout en soulignant le rôle déterminant des entreprises dans la conversion des outils numériques en productivité réelle. Ainsi, si rupture il y a, elle ne viendra pas de l’IA seule, mais de l’ensemble du système productif qui l’accompagne ou la freine.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , | Laisser un commentaire

Résiliation des rapports de service pour port d’un symbole religieux au travail

Introduction

Dans un arrêt ATA/239/2025 du 11 mars 2025, la Chambre administrative de la Cour de justice du canton de Genève s’est prononcée sur la légalité de la résiliation des rapports de service d’une infirmière, employée par l’Institution genevoise de maintien à domicile (IMAD), motivée par son refus de retirer son turban lors de ses activités professionnelles.

Faits

Mme A______, infirmière de confession musulmane, est engagée par l’IMAD dès 2013, d’abord sous contrat à durée déterminée, puis indéterminée. Elle est titularisée en juillet 2015. Pendant l’essentiel de sa carrière, elle porte un turban noir couvrant entièrement ses cheveux, ce qu’elle justifie comme une pratique personnelle, respectueuse des règles de laïcité. Elle soutient qu’il ne s’agit pas d’un signe religieux mais d’un vêtement civil sans portée confessionnelle, comparable à un col roulé ou une écharpe.

Dès 2015, l’IMAD est alertée par un patient qui se dit dérangé par ce qu’il perçoit comme un « voile » à connotation religieuse. L’affaire prend un tournant juridique à partir de l’entrée en vigueur de la loi genevoise sur la laïcité de l’État du 26 avril 2018 (LLE ; RS GE A 2 75) le 9 mars 2019. La LLE impose la neutralité religieuse aux agents publics en contact avec la population. Dès lors, l’institution entame plusieurs échanges avec Mme A______, tentant de la convaincre de retirer son turban dans l’exercice de ses fonctions. Malgré ces démarches et des avertissements clairs, elle maintient fermement son refus.

En juin 2024, des directives internes de l’IMAD viennent renforcer l’interdiction du port de couvre-chefs en contact avec le public. Mme A______, qui est soutenue par un syndicat, conteste cette directive, arguant d’une atteinte à sa personnalité, à sa liberté de conscience et à l’absence de base légale claire. Elle continue à se présenter avec son turban lors de ses prestations. Le 14 août 2024, l’IMAD prononce la résiliation de ses rapports de service avec effet au 30 novembre 2024, en application des articles 21 alinéa 3 et 22 de la loi générale relative au personnel de l’administration cantonale, du pouvoir judiciaire et des établissements publics médicaux du 4 décembre 1997 (LPAC ; RS GE B 5 05)

Mme A______ saisit alors la chambre administrative pour contester cette décision. Elle invoque principalement une violation de sa liberté religieuse et des droits fondamentaux garantis par la Constitution et la CEDH. Elle sollicite l’annulation de la décision ou, à défaut, une indemnité équivalente à 24 mois de salaire.

Question

La question centrale est de savoir si l’IMAD était fondée à résilier les rapports de service de Mme A______ pour manquement à son devoir de neutralité religieuse, au motif qu’elle portait un turban perçu comme un signe confessionnel, et si cette mesure respecte les exigences de légalité, de nécessité et de proportionnalité posées par le droit suisse et la jurisprudence de la Cour européenne des droits de l’homme.

Cadre légal applicable

Plusieurs dispositions légales entrent en ligne de compte :

Art. 3 al. 5 LLE  : impose la neutralité religieuse aux agents publics lorsqu’ils sont en contact avec la population.

Art. 2A al. 2 LPAC  : prévoit que les fonctionnaires doivent respecter les principes légaux, dont ceux relatifs à la laïcité.

Art. 21 al. 3 et art. 22 LPAC : encadrent les motifs de licenciement fondés et les conditions de résiliation des rapports de service.

Art. 21 let. b et c du règlement d’application de la LPAC du 24 février 1999 (RPAC ; RS GE  B 5 05.01) : précisent les devoirs d’attitude générale, dont la loyauté et la neutralité.

Art. 15 et 36 Cst. : protègent la liberté de conscience et  de religion et prévoient les conditions de la restriction des droits fondamentaux

Art. 8 al. 1 Cst. : interdit les discriminations.

Art. 9 §2 et 14 CEDH : encadrent la liberté de manifester sa religion et l’égalité de traitement.

Arguments des parties

Mme A______ affirme que le port du turban n’a jamais entravé ses prestations ni suscité de plaintes concrètes récentes. Selon elle, son turban est un habit civil sans connotation religieuse, qu’elle porte par respect pour ses convictions et non pour exprimer une appartenance. Elle souligne que l’IMAD a déjà accepté le port du turban pour d’autres employés, ce qui constitue à ses yeux une inégalité de traitement. Elle reproche à l’institution d’avoir modifié ses directives vestimentaires en cours de procédure, ce qui aurait modifié unilatéralement son contrat de travail. Elle invoque également une atteinte à sa dignité et une discrimination indirecte fondée sur ses croyances.

L’IMAD, pour sa part, soutient que le turban porté de manière systématique, même en été, est objectivement perçu comme un signe religieux. Elle rappelle que Mme A______ a reconnu à plusieurs reprises, depuis 2015, que cette coiffe était liée à ses convictions spirituelles. Elle insiste sur la nécessité de préserver la neutralité du service public, en particulier dans un domaine aussi sensible que les soins à domicile. L’employeur fait valoir qu’aucune mesure moins intrusive n’était possible et qu’un reclassement était exclu en raison du refus catégorique de l’intéressée. Il réfute toute discrimination ou harcèlement.

Motifs de l’arrêt

La chambre administrative confirme d’abord que le recours est recevable sur la forme. Sur le fond, elle rappelle que le port du turban constitue, dans le contexte spécifique genevois, une manifestation de convictions religieuses, au sens des articles 15 Cst. et 9 CEDH. Toutefois, cette liberté n’est pas absolue. Elle peut être restreinte pour préserver des intérêts publics majeurs, tel que le respect du principe de laïcité (ATF 148 I 160).

En l’espèce, la cour retient que l’IMAD est une entité publique soumise à la LLE. Elle conclut que l’obligation de neutralité découle directement de l’article 3 alinéa 5 LLE et que cette obligation s’impose au personnel en contact avec les usagers. La restriction imposée à Mme A______ est donc fondée sur une base légale claire et vise un but légitime. En ce sens, elle est conforme aux conditions des articles 36 alinéas 1 à 3 Cst. et 9 §2 CEDH.

S’agissant de la proportionnalité, la cour considère que l’interdiction du turban s’applique uniquement pendant l’exercice de l’activité professionnelle en contact avec le public. Elle juge cette restriction limitée, nécessaire à la neutralité du service public et adaptée aux circonstances. La recourante n’ayant proposé aucune solution alternative, la résiliation est jugée proportionnée.

La cour écarte également les griefs de discrimination. Elle admet que le traitement différencié de la barbe ou d’autres accessoires vestimentaires n’est pas comparable, car le turban ici en cause a une portée symbolique particulière. Par ailleurs, le cas d’une autre employée autorisée à porter un turban dans un contexte différent ne permet pas de conclure à une inégalité de traitement systématique.

Enfin, la chambre constate l’absence de reproche sur la qualité des soins, mais souligne que la rupture du lien de confiance résulte du refus persistant d’obéir à une obligation légale claire, ce qui justifie la mesure de licenciement. Elle juge donc que la décision de l’IMAD repose sur un motif fondé au sens des articles 21 alinéa 3 et 22 LPAC.

Dispositif

Le recours est rejeté. L’émolument de CHF 1’000.– est mis à la charge de la recourante, aucune indemnité de procédure n’est allouée. Le jugement peut faire l’objet d’un recours en matière de droit public devant le Tribunal fédéral, conformément aux articles 82 ss de la loi fédérale sur le Tribunal fédéral (LTF – RS 173.110).

Conclusion

Cet arrêt illustre la délicate conciliation entre liberté religieuse et neutralité dans le service public. Il confirme que, dans le canton de Genève, le principe de laïcité peut justifier, sous conditions strictes, une restriction ciblée de la liberté de manifester sa religion dans un contexte professionnel. L’arrêt rappelle aussi que le respect des règles institutionnelles ne saurait être facultatif, même en l’absence d’intention prosélyte.

Me Philippe Ehrenström, avocat, LLM

Publié dans Fonction publique, Libertés | Tagué , , , , , | Laisser un commentaire

Les hallucinations de l’IA générative : dérèglement des sens ou logique de l’idée ?

Introduction

Dans le domaine de l’intelligence artificielle générative, le terme « hallucination » désigne la production par un modèle de langage (LLM, pour Large Language Model) de contenus erronés, fictifs ou inexacts, tout en les présentant de manière convaincante, voire avec autorité. Cette notion recouvre plusieurs formes d’inexactitudes :

  • fautes factuelles (ex. : inventer une décision de justice),
  • faux raisonnements logiques (ex. : conclusions non déductibles des données),
  • inventaire de sources inexistantes (ex. : fausses citations bibliographiques),
  • ou encore dérives interprétatives lorsque le modèle « comble les vides » avec des éléments plausibles mais infondés….

Le phénomène est d’autant plus problématique quand il affecte des domaines sensibles comme le droit, la santé ou l’éducation.

Cela étant dit, le terme est-il correct, ou donne-t-il une fausse image – anthropocentrée – de l’intelligence artificielle et de son fonctionnement ?

Origine du phénomène : comment fonctionnent les LLM ?

Le principe fondamental : la prédiction de texte

Les LLM reposent sur un principe simple : prédire le mot suivant dans une séquence, en fonction d’un immense corpus d’exemples (internet, livres, journaux, etc.). Ce processus repose sur une architecture dite transformer, introduite par le célèbre article « Attention is All You Need » (Vaswani et al., 2017).

Le modèle apprend ainsi statistiquement quelles combinaisons de mots sont les plus probables dans un contexte donné. Cela signifie que le LLM ne « comprend » pas le monde comme un humain, mais manipule des représentations linguistiques probabilistes.

La limite : absence de référent vérifiable

Un LLM ne dispose pas, en tant que tel, d’un accès à la réalité. Il ne consulte pas une base de données ou une source externe en temps réel (sauf dans les systèmes hybrides de type RAG – retrieval augmented generation). Dès lors, lorsqu’il génère une réponse, il ne fait aucune vérification factuelle, mais extrapole à partir de son entraînement dans le cadre d’un raisonnement statistique et probabiliste.

Mécanismes techniques des hallucinations

Les hallucinations résultent de plusieurs facteurs intrinsèques aux LLM :

1. Entraînement sur des données bruitées

Les LLM sont entraînés sur des données hétérogènes, non filtrées, souvent issues du web. Cela inclut des contenus erronés, obsolètes ou biaisés, qui alimentent la « mémoire » du modèle.

2. Sur-généralisation et approximations

En l’absence d’information complète ou explicite, le modèle peut extrapoler de façon abusive, produisant une réponse cohérente dans la forme mais incorrecte sur le fond.

3. Absence de référentiel tiers

Un LLM ne sait pas ce qu’est une vérité. Il optimise la plausibilité linguistique, pas l’exactitude. Il peut donc affirmer une erreur avec le même ton qu’une vérité vérifiée.

Pourquoi les hallucinations persistent-elles malgré les progrès des LLM ?

1. Taille du modèle ≠ fiabilité

Un modèle plus grand (ex. : GPT-4, Claude, Gemini) est plus puissant et expressif, mais cela n’implique pas nécessairement moins d’erreurs. La complexité croissante rend parfois le modèle plus difficile à contrôler et à interpréter.

2. Illusion de compétence

Les LLM sont capables de formuler des phrases grammaticalement parfaites et stylistiquement crédibles. Cela crée une illusion de véracité qui rend les erreurs d’autant plus difficiles à détecter.

3. Contexte d’usage non maîtrisé

Dans des domaines spécialisés (droit, médecine), l’utilisateur peut se retrouver dépendant des réponses, sans toujours disposer des outils pour en évaluer la véracité, surtout si la réponse semble « bien formulée ».

Conclusion

Les hallucinations ne sont pas un « bug » des LLM, mais une caractéristique structurelle de leur fonctionnement statistique. Elles ne représentent ainsi pas un « dérèglement des sens » causés par l’ingestion de stupéfiants ou des troubles psychiques, sens qui fonctionneraient autrement de manière satisfaisante, mais bien l’accomplissement d’une logique de l’idée poussée jusqu’à son terme (Antoine Destutt de Tracy plutôt que Thomas de Quincey si on veut…) Il serait dès lors plus correct, et moins anthropocentré, de parler d’idéologie du LLM, plus que de ses hallucinations.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , | Laisser un commentaire

L’intelligence artificielle comme argument publicitaire déloyal?

La société W LLC commercialise un « AI Content Detector » auprès des consommateurs qui cherchent à déterminer si un contenu en ligne a été élaboré à l’aide d’une technologie d’intelligence artificielle générative, telle que ChatGPT, ou s’il a été rédigé par un être humain. L’entreprise affirme que l’AI Content Detector a été développé à partir d’un large éventail de documents, notamment des articles de blog et des entrées de Wikipédia, afin de le rendre plus précis pour l’utilisateur moyen (marketing p.ex.). La Federal Trade Commission US (FTC), dans un projet de plainte, affirme cependant que le modèle d’IA qui alimente l’AI Content Detector n’a été formé ou affiné que pour classer efficacement des contenus académiques. La FTC a donc publié un projet de plainte demandant à W LLC de cesser de faire de la publicité sur la précision de ses produits de détection par intelligence artificielle (IA), à moins qu’elle ne présente des preuves compétentes et fiables montrant que ces produits sont aussi précis qu’ils le prétendent.

Résumé du document :

Le document est donc un projet de  plainte déposée par la FTC à l’encontre de la société W LLC, anciennement connue sous le nom de C AI. Cette entreprise, établie en A, commercialise des outils d’intelligence artificielle destinés à détecter si un texte ou une image a été généré par une IA. L’outil principal mis en cause est le « AI Content Detector », présenté comme capable d’identifier avec une précision de 98,3 % si un texte a été produit par des modèles d’IA comme ChatGPT, GPT-4, Bard ou Claude. Ce service est proposé en ligne, gratuitement dans une version limitée, ou par abonnement mensuel payant à XX dollars.

Selon la FTC, ces allégations sont trompeuses. W n’a pas développé elle-même le modèle d’intelligence artificielle utilisé dans son détecteur. Elle s’est contentée d’utiliser un modèle open source appelé « RoBERTa-academic-detector », mis au point par des étudiants norvégiens dans le cadre d’un travail universitaire. Ce modèle a été entraîné exclusivement sur des résumés d’articles scientifiques, ce qui le rend inadapté à la détection de textes de nature marketing ou rédactionnelle, qui constituent pourtant l’usage principal promu par W LLC auprès de ses clients.

En outre, l’entreprise n’a réalisé aucun test indépendant pour vérifier la précision de son détecteur dans les conditions réelles d’utilisation. Elle s’est appuyée uniquement sur les résultats publiés par les développeurs du modèle, alors qu’en pratique ses résultats montreraient une précision bien inférieure à celle annoncée : environ 74,5 % dans les meilleurs cas, et seulement 53,2 % pour la détection de contenu IA dans des textes non académiques. Cela signifie que dans les situations concrètes rencontrées par les utilisateurs de W, le taux de réussite du détecteur est à peine supérieur à un tirage par pile ou face. Malgré cela, W a affirmé de façon répétée, sur ses sites Web, ses vidéos YouTube et ses publicités Google, que son détecteur atteignait une précision de 98,3 % et qu’il était « l’un des plus fiables du marché ».

La société est également accusée d’avoir élargi sans fondement le champ d’action de son détecteur, en prétendant qu’il permettait d’identifier des textes générés non seulement par ChatGPT, mais aussi par Bard, Claude et GPT-4, alors que le modèle n’a été entraîné qu’avec du contenu produit par ChatGPT. Elle a en outre affirmé que son détecteur avait été entraîné sur une grande variété de contenus, comme des blogs, des articles de Wikipedia ou des essais, alors que ce n’est pas le cas. Toutes ces déclarations ont été utilisées pour inciter les consommateurs à payer un abonnement ou à recourir à ses services, sans que les performances vantées ne soient vérifiées ni vérifiables.

La FTC considère donc que ces pratiques constituent des actes de nature trompeuse, en violation de la section 5(a) du FTC Act, qui interdit les pratiques déloyales ou trompeuses dans le commerce. Le projet de plainte vise à ouvrir à terme une procédure formelle à l’encontre de W LLC, dans l’intérêt du public.

Pour un avocat suisse, cette affaire met en lumière les risques juridiques auxquels s’exposent les entreprises qui commercialisent des produits reposant sur des algorithmes, en particulier lorsqu’elles prétendent à des niveaux de performance élevés qui ne correspondent pas à la réalité.

(Repéré par Luis Alberto Montezuma : https://www.linkedin.com/posts/luisalbertomontezuma_ftc-ugcPost-7322688332952399873-ASWN?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAX2b5oB2W8RFgEb7aoRz8wscswBHlxf0Mg avec un lien vers le projet de plainte)

Me Philippe Ehrenström, avocat LLM

Publié dans concurrence déloyale, Droit US | Tagué , , , , | Laisser un commentaire

Voyageur de commerce ou agent?

5.3 À teneur de l’art. 319 al. 1 CO, par le contrat individuel de travail, le travailleur s’engage, pour une durée déterminée ou indéterminée, à travailler au service de l’employeur et celui-ci à payer un salaire fixé d’après le temps ou le travail fourni (salaire aux pièces ou à la tâche).

Selon l’art. 321a CO, le travailleur exécute avec soin le travail qui lui est confié et sauvegarde fidèlement les intérêts légitimes de l’employeur (al. 1). Il est tenu d’utiliser selon les règles en la matière les machines, les instruments de travail, les appareils et les installations techniques ainsi que les véhicules de l’employeur, et de les traiter avec soin, de même que le matériel mis à sa disposition pour l’exécution de son travail (al. 2). Pendant la durée du contrat, le travailleur ne doit pas accomplir du travail rémunéré pour un tiers dans la mesure où il lèse son devoir de fidélité et, notamment, fait concurrence à l’employeur (al. 3). Pendant la durée du contrat, le travailleur ne doit pas utiliser ni révéler des faits destinés à rester confidentiels, tels que les secrets de fabrication et d’affaires dont il a pris connaissance au service de l’employeur; il est tenu de garder le secret même après la fin du contrat en tant que l’exige la sauvegarde des intérêts légitimes de l’employeur (al. 4).

5.4 Le contrat d’engagement des voyageurs de commerce est un contrat individuel de travail à caractère spécial, par lequel une personne, appelée voyageur de commerce (travailleur), s’oblige, contre paiement d’un salaire, à négocier ou à conclure, pour le compte d’un commerçant, d’un industriel ou d’un autre chef d’entreprise exploitée en la forme commerciale (employeur), des affaires de n’importe quelle nature hors de l’établissement (art. 347 al. 1 CO).

Le contrat d’engagement des voyageurs de commerce est avant tout un contrat de travail, dont les quatre éléments caractéristiques usuels doivent être cumulativement réalisés. L’éloignement physique entre le voyageur et son employeur et l’autonomie organisationnelle dont les voyageurs bénéficient souvent, impliquent une appréciation particulière du lien de subordination. Ce qui importe alors réside dans la faculté d’instruction et de contrôle de l’employeur (lien hiérarchique) et dans l’incorporation du voyageur dans la structure organisationnelle de l’employeur.

(…)

5.5 Le contrat d’agence est le contrat par lequel une personne, l’agent, est chargée, à titre permanent, par un ou plusieurs mandants, de négocier la conclusion d’affaires ou d’en conclure en leur nom et pour leur compte, sans être liée à eux par un contrat de travail (art. 418a al. 1 CO).

Selon l’art. 418c CO, l’agent veille aux intérêts du mandant avec la diligence requise d’un bon commerçant (al. 1). Il peut également, sauf convention écrite prévoyant le contraire, travailler aussi pour d’autres mandants (al. 2). (…)

5.6  (…) D’après la jurisprudence, le critère essentiel de distinction entre le contrat d’engagement des voyageurs de commerce (art. 347 ss CO), qui est un contrat individuel de travail à caractère spécial, et le contrat d’agence (art. 418a ss CO), réside dans le fait que l’agent exerce sa profession à titre indépendant, tandis que le voyageur de commerce se trouve dans un rapport juridique de subordination à l’égard de son employeur (ATF 129 III 664 consid. 3.2). L’agent, contrairement au voyageur de commerce, peut organiser son travail comme il l’entend, disposer de son temps à sa guise et n’est pas lié par les instructions et directives de son cocontractant. Le fait de devoir visiter un certain nombre de clients, d’avoir à justifier un chiffre d’affaires minimum, l’obligation d’adresser des rapports périodiques à la maison représentée sont des indices permettant d’inférer l’existence d’un contrat d’engagement des voyageurs de commerce (ATF 129 III 664 consid. 3.2 ; arrêt du Tribunal fédéral 4A_533/2012 du 6 février 2013 consid. 2.4).

Deux éléments sont prépondérants pour distinguer le voyageur de commerce de l’agent : la subordination (devoir d’obéissance strict, obligation de rapports périodiques ou de se présenter régulièrement dans les locaux de l’employeur, visites minimales à effectuer, autres limites contractuelles à la liberté d’action, droit de contrôle de l’employeur, incorporation dans l’organisation de l’employeur, etc) et la dépendance économique du voyageur à l’égard de son employeur (David AUBERT, in Commentaire romand, op. cit, n. 13 ad art. 347 CO).

5.7 Dans sa jurisprudence, le Tribunal fédéral a eu l’occasion d’examiner le cas d’un recourant, affecté au service externe de l’intimée, qui ne devait respecter les instructions de l’intimée qu’en ce qui concernait la gamme des produits financiers offerts aux clients. Il pouvait exercer son activité où il l’entendait, en Suisse et au Liechtenstein. Il n’avait aucun horaire à respecter et décidait librement de prendre ou non des jours de repos. Il ne lui était pas interdit de travailler pour d’autres mandants, pour autant que ces derniers soient liés conventionnellement avec l’intimée. Il n’avait pas été établi que l’intimée possédât une structure hiérarchisée dans son service externe, au sein de laquelle il aurait occupé un rang précis. L’ensemble de ces éléments, pris globalement, a amené le Tribunal fédéral à nier tout rapport de subordination entre les parties et à admettre l’indépendance du recourant par rapport à l’intimée (arrêt 4A_533/2012 du 6 février 2013 consid. 2.5).

La [Chambre des prud’hommes de la Cour de justice [GE]] a déjà jugé, s’agissant d’une société de courtage en assurances, que c’était avant tout l’existence et l’intensité d’un lien de subordination entre les parties contractantes qui devait permettre de retenir un type de contrat plutôt que l’autre, dont découlait l’application des règles relatives au salaire minimum en cas de relation de travail (ATA/117/2024 du 30 janvier 2024 consid. 5.9, confirmé par arrêt du Tribunal fédéral 2C_137/2024 du 20 mars 2024 consid. 3). Elle a considéré que les collaborateurs concernés se trouvaient dans une relation de travail en tant que leur contrat prévoyait un délai de congé, une clause de prohibition de concurrence, le droit de jouir de vacances, l’existence d’un temps d’essai, la présence d’un élément de durée ainsi que l’obligation, lorsqu’ils n’étaient pas en rendez-vous, d’être présents à leur place de travail pendant « les heures appropriées » pour assurer des tâches administratives, le suivi de leur clientèle et la prospection de nouveaux clients. Le temps de travail était réglé (pas plus de 42 heures par semaine), le salaire assuré en LPP et LAA et une disposition réglait le remboursement des frais professionnels. Par ailleurs, les collaborateurs recevaient, en sus, des instructions quant aux potentiels clients à appeler ou rencontrer et devaient rapporter le résultat de leurs appels (ibidem consid. 5.9.1).

(Arrêt de la Chambre administrative de la Cour de justice [GE] ATA/318/2025 du 28.03.2025, consid. 5.3-5.7)

Me Philippe Ehrenström, avocat, LLM

Publié dans Qualification du contrat | Tagué , , , , , , , | Laisser un commentaire