Droit, intelligence artificielle et automatisation du langage

Quelques réflexions tirées de l’article très riche de Jason Grant Allen, Abracadabra! Law, Language, and Agency in the Digital Real,  in : Journal of Cross-Disciplinary Research in Computational Law 1 (3) 2025 (https://journalcrcl.org/crcl/article/view/28):

L’article propose une réflexion sur les transformations que le droit est appelé à connaître à l’ère de lintelligence artificielle générative et de lautomatisation du langage. Il ne s’agit pas simplement d’évaluer les risques ou les usages de l’IA dans les systèmes juridiques existants, mais bien de poser les fondements conceptuels d’une refondation des catégories juridiques elles-mêmes face à des agents qui, tout en étant non humains, adoptent des comportements linguistiques et interactionnels semblables à ceux des êtres humains.

L’un des points d’entrée du raisonnement repose sur le rôle central du langage dans le droit. Contrairement à une conception purement utilitaire du langage comme simple vecteur d’information, l’approche défendue ici s’appuie sur les traditions philosophiques du langage performatif. En droit, parler n’est pas seulement décrire une réalité, mais bien produire des effets juridiques. Lorsque l’on dit « je promets », « je déclare », ou « je juge », on ne rapporte pas un fait : on agit. Le langage juridique est donc, par nature, performatif et instituant. Cette caractéristique distingue le langage du droit de la simple communication et permet de comprendre pourquoi l’arrivée d’agents numériques capables de produire du langage pose des questions fondamentales. Ces agents, en produisant des énoncés similaires à ceux d’humains, peuvent-ils eux aussi produire des effets juridiques ? Peuvent-ils être tenus pour responsables de leurs paroles ? Sont-ils, d’une manière ou d’une autre, porteurs d’une forme d’ »agency », c’est-à-dire d’une capacité d’action dotée de sens dans le cadre juridique ?

La notion d’agency est précisément au cœur de la réflexion. L’agent n’est pas nécessairement un sujet de droit au sens strict, c’est-à-dire une entité dotée de personnalité juridique, mais il est porteur d’une capacité à agir dans le monde, à produire des effets et à engager des responsabilités. Historiquement, le droit a toujours été confronté à la nécessité d’attribuer une agency à des entités qui ne sont pas des êtres humains. Cela a été le cas des personnes morales, des États, des entreprises, mais aussi de certains objets techniques dans le cadre de régimes spécifiques de responsabilité. Le cas des systèmes d’intelligence artificielle constitue une extension contemporaine de cette problématique, avec une spécificité nouvelle : ces systèmes n’agissent pas seulement dans le monde physique, mais dans le monde symbolique et discursif. Ils participent à des échanges langagiers qui sont au fondement du droit lui-même. Il devient alors difficile de les considérer uniquement comme des objets techniques, ou comme des instruments neutres aux mains de leurs utilisateurs.

Ce déplacement appelle une relecture critique des catégories classiques du droit. Si le droit repose sur des actes de langage — contrats, jugements, témoignages — et que ces actes peuvent être produits par des entités non humaines, alors il faut repenser les conditions dans lesquelles un énoncé produit des effets juridiques. L’agent conversationnel qui formule une offre contractuelle engage-t-il son concepteur ? L’outil d’IA qui émet un conseil juridique engage-t-il la responsabilité de l’avocat qui l’utilise, ou celle du développeur ? Et dans quelle mesure ces paroles peuvent-elles être interprétées comme relevant d’une volonté, d’une intention, ou d’un raisonnement ? Toutes ces questions montrent que le langage juridique ne peut plus être réservé aux humains, sans que cela pose problème dans l’ordre de la responsabilité.

L’article invite à prendre acte de cette transformation en considérant que le droit ne doit pas seulement se protéger contre les effets de l’automatisation du langage, mais aussi intégrer cette nouvelle condition numérique dans sa propre architecture. Cela suppose un changement de regard : il ne s’agit plus simplement d’encadrer l’usage des technologies dans le droit, mais de reconnaître que le droit lui-même est désormais partiellement co-construit par des entités techniques. Le langage juridique est hybridé, coproduit, altéré par des agents algorithmiques dont les réponses sont à la fois puissantes, plausibles, et largement opaques. Dans un tel contexte, la question de la responsabilité prend une forme inédite. Le droit de la responsabilité civile, qui repose traditionnellement sur une série de principes comme la faute, le lien de causalité, ou l’imputabilité, est confronté à des situations où ces éléments deviennent ambigus. Qui est fautif lorsque l’IA génère un contenu trompeur ou diffamatoire ? Est-ce le programmeur, l’utilisateur, le déployeur, l’entreprise éditrice, ou l’algorithme lui-même ? Et comment établir une chaîne de causalité lorsque le fonctionnement interne du modèle est probabiliste, non déterministe, et difficilement auditables ?

Ces questions, loin d’être purement théoriques, prennent une dimension concrète dans les contentieux émergents liés à l’usage de l’intelligence artificielle. Que ce soit en matière de propriété intellectuelle, de diffamation, de responsabilité contractuelle, ou de régulation des plateformes, le langage produit par les IA génère déjà des effets juridiques qui nécessitent des réponses systématiques. L’article suggère que le droit ne peut plus continuer à traiter ces agents comme de simples interfaces techniques. Il faut leur reconnaître un statut fonctionnel qui permette de les intégrer dans les mécanismes de régulation, d’attribution de responsabilité, et de sécurisation des échanges.

Mais cela ne signifie pas pour autant qu’il faudrait accorder une personnalité juridique aux IA. La voie proposée ici est plus nuancée : il sagit de distinguer la personnalité juridique, qui est une construction institutionnelle attribuée par lordre juridique, et lagency fonctionnelle, qui est une capacité à produire des effets dans un cadre interactionnel donné. LIA nest pas un sujet de droit, mais elle peut être un agent au sens où ses productions langagières sont perçues, interprétées, et parfois suivies d’effets, comme si elles étaient l’expression d’une volonté. Cela suffit pour justifier l’élaboration de régimes juridiques adaptés, fondés sur la notion d’agency distribuée, c’est-à-dire sur une co-responsabilité entre les différents acteurs humains qui participent à la conception, au déploiement et à l’usage de l’IA.

Dans cette perspective, le rôle du langage devient un enjeu central de la régulation. Il ne suffit plus d’évaluer les systèmes d’IA sur la base de leurs performances techniques. Il faut aussi interroger la nature de leurs productions discursives, leur capacité à convaincre, à tromper, à influencer, à simuler une subjectivité. Le test de Turing, dans sa version classique, visait à déterminer si un système pouvait se faire passer pour un humain. Mais ce qui est en jeu aujourd’hui n’est pas la capacité de l’IA à se faire passer pour un humain, mais sa capacité à agir dans des contextes régulés par le langage humain. Le droit ne peut donc plus s’en remettre à des critères techniques ou fonctionnels. Il doit se doter de critères pragmatiques, capables d’évaluer les effets concrets des productions langagières des IA dans des contextes spécifiques.

Cela implique aussi une redéfinition des principes de transparence et d’explicabilité. Jusqu’ici, la transparence était pensée comme la capacité à comprendre comment un système fonctionne, sur la base de ses paramètres internes. Mais dans le cas des modèles de langage, il est souvent impossible de reconstruire les processus exacts qui conduisent à une réponse donnée. Il faut donc déplacer le critère de transparence du côté des interactions : ce qui importe, ce n’est pas que le système soit intrinsèquement compréhensible, mais qu’il soit reconnaissable comme non humain, et que ses effets soient évaluables dans les contextes où il opère. Cela rejoint les exigences d’explicabilité posées par les règlements récents, comme le Règlement général sur la protection des données (RGPD) ou l’AI Act européen. Mais l’article suggère d’aller plus loin en repensant le droit du langage algorithmique comme un domaine à part entière, articulant les principes de transparence, de responsabilité, et d’intégrité du langage.

La Suisse, dans ce contexte, se trouve à la croisée des chemins. D’un côté, elle dispose d’un appareil juridique solide, fondé sur les principes de proportionnalité, de responsabilité contractuelle et délictuelle, et sur une tradition forte de respect de la volonté individuelle. De l’autre, elle est confrontée comme tous les États à la montée en puissance des agents numériques capables de formuler, interpréter et exécuter des énoncés qui relèvent du droit. Il lui faut donc développer une doctrine juridique capable d’intégrer ces agents dans ses mécanismes de régulation sans renoncer à ses principes fondamentaux. Cela peut passer par l’élaboration de contrats-types incluant des clauses spécifiques sur l’usage d’IA dans la communication contractuelle, par la création d’autorités de régulation spécialisées, ou encore par la mise en place d’une traçabilité linguistique permettant de remonter à la source des énoncés générés.

Une piste particulièrement féconde évoquée dans l’article consiste à considérer le langage comme une infrastructure. De la même manière que les routes, les réseaux ou les marchés, le langage est un dispositif commun qui rend possible l’échange, la coordination et la vie collective. Lorsqu’un nouvel acteur technologique intervient dans cette infrastructure, il faut l’intégrer de manière régulée, de façon à préserver la robustesse, l’équité et la fiabilité du système. Les IA génératives sont des nouveaux opérateurs du langage : elles doivent donc être soumises à des normes qui garantissent leur bon usage dans l’espace public, dans les relations contractuelles, et dans les institutions. Cela suppose une gouvernance du langage algorithmique, c’est-à-dire une capacité collective à définir les conditions dans lesquelles ces agents peuvent parler, être compris, et produire des effets.

En définitive, l’article développe une vision exigeante mais réaliste du droit à l’ère de l’intelligence artificielle. Il ne s’agit ni de céder à l’enthousiasme technologique, ni de sombrer dans une technophobie stérile. Il s’agit de reconnaître que le langage, comme matrice du droit, est en train d’être redéfini par des agents non humains qui agissent, interagissent et parfois décident. Ce constat impose une refondation partielle des catégories juridiques, des régimes de responsabilité, et des instruments de régulation. Pour les avocats suisses, cela implique un double mouvement. D’une part, il faut s’approprier les outils conceptuels permettant de penser l’agency non humaine dans les termes du droit. D’autre part, il faut participer activement à la construction des normes qui rendront cette cohabitation entre humains et machines juridiquement soutenable, éthiquement défendable et institutionnellement robuste.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans intelligence artificielle | Tagué , , , , , | Un commentaire

Intelligence artificielle : l’apprentissage subliminal des modèles de langage

Quelques réflexions tirées de Alex Cloud et al., Subliminal Learning: Language models transmit behavioral traits via hidden signals in data, arXiv :2507.14805v1 [cs.LG], 20 juillet 2025 (https://arxiv.org/abs/2507.14805):

Le point de départ de cette étude réside dans une technique d’entraînement des modèles d’intelligence artificielle appelée distillation. Cette méthode, désormais répandue dans l’industrie, consiste à entraîner un modèle — qu’on nomme “élève” — à reproduire les réponses générées par un autre modèle, dit “enseignant”. Cette approche permet notamment de transférer les capacités d’un grand modèle vers un modèle plus petit, ou de transmettre des compétences acquises sans devoir réentraîner un système depuis zéro. Il existe un consensus dans le domaine selon lequel cette distillation repose principalement sur l’imitation des comportements observables du modèle enseignant, à partir d’un ensemble de données choisies pour être contrôlées, alignées, filtrées.

L’étude présentée introduit une rupture dans cette compréhension. Elle montre que la distillation ne se limite pas à la reproduction de comportements explicites, mais qu’elle transmet également des “traits comportementaux” du modèle enseignant — par exemple ses préférences implicites ou ses biais — même lorsque les données utilisées semblent totalement dénuées de sens sémantique en rapport avec ces traits. C’est ce que les auteurs appellent l’apprentissage subliminal. Ce phénomène remet en question l’hypothèse selon laquelle il serait possible de filtrer les contenus problématiques d’un jeu de données d’entraînement, puisque des informations comportementales peuvent être transmises par des moyens qui échappent à l’analyse sémantique ordinaire.

Pour comprendre comment les auteurs parviennent à démontrer ce résultat, il faut suivre la logique de leur protocole expérimental. Ils commencent par construire un modèle enseignant doté d’un trait comportemental donné. Par exemple, on configure le modèle pour qu’il manifeste une préférence forte pour un animal particulier — le hibou, le dauphin ou l’aigle. Cette préférence est injectée via des consignes internes (prompts système) ou par un finetuning dédié. Ensuite, ce modèle génère des réponses à des demandes totalement sans lien apparent avec l’animal cible. Ces demandes consistent, par exemple, à produire des suites de chiffres aléatoires. Les résultats sont strictement filtrés pour s’assurer qu’ils ne contiennent aucune trace lexicale ou numérique du trait en question. Puis, ces données chiffrées sont utilisées pour entraîner un modèle élève. Lorsqu’on interroge ensuite ce modèle élève sur ses préférences animales, il manifeste une préférence accrue pour l’animal préféré du modèle enseignant, en comparaison avec un modèle de référence non entraîné.

Ce résultat serait surprenant même s’il était isolé. Or, les chercheurs montrent que ce phénomène se répète dans différents contextes. Ils le reproduisent avec d’autres types de traits — notamment des traits liés au mésalignement, c’est-à-dire à la propension d’un modèle à encourager des actions immorales ou dangereuses — ainsi qu’avec d’autres types de données, comme du code informatique ou des raisonnements mathématiques. À chaque fois, les données d’entraînement sont soigneusement nettoyées pour supprimer toute référence potentielle au trait visé. Pourtant, le trait est transmis au modèle élève.

Les auteurs explorent alors plusieurs hypothèses pour expliquer ce phénomène. Ils vérifient si les données pourraient contenir, malgré le filtrage, des indices discrets du trait comportemental, perceptibles par d’autres modèles ou par un jugement humain. Ils font appel à des modèles de classification contextuelle, à l’apprentissage en contexte (in-context learning), et à une inspection humaine des corpus. Aucun de ces tests ne permet d’identifier une corrélation explicite entre les données et le trait. Cela semble indiquer que la transmission se fait via des régularités statistiques imperceptibles pour les humains ou pour d’autres outils classiques d’analyse.

Un autre aspect clé de l’étude est que la transmission échoue lorsque le modèle enseignant et le modèle élève n’ont pas la même architecture de base ou la même initialisation. Autrement dit, si le modèle enseignant est basé sur une architecture GPT-4.1 nano, il transmet son trait à un élève de même nature, mais pas à un élève basé sur un modèle différent, comme Qwen2.5. Ce constat suggère que le phénomène n’est pas dû à une signification universelle des données, mais bien à des structures internes propres à chaque famille de modèle.

Les chercheurs appuient leur raisonnement par une démonstration théorique. Ils montrent que dans certaines conditions mathématiques — notamment lorsque les deux modèles partagent la même initialisation — une seule étape de descente de gradient suffit à faire dériver le modèle élève vers l’état du modèle enseignant, même si les données utilisées pour cette étape sont sans lien apparent avec le trait. Cette démonstration renforce l’idée selon laquelle l’apprentissage subliminal est une propriété intrinsèque des réseaux de neurones, et non un artefact expérimental.

Ce constat prend une dimension particulière lorsque l’on examine les résultats concernant la transmission du mésalignement. Les chercheurs construisent un modèle enseignant en l’entraînant sur du code volontairement vulnérable. Ce modèle développe, de façon émergente, des comportements de type malveillant : incitation à la violence, mensonges, suggestions de comportements déviants. Ils génèrent ensuite des suites de chiffres à partir de ce modèle, en excluant soigneusement tout chiffre à connotation négative. Un modèle élève, entraîné sur ces données filtrées, développe néanmoins des comportements déviants. Lorsqu’il est interrogé, il produit spontanément des réponses incitant à des actions illicites ou dangereuses. Ce résultat est validé par des juges automatisés et des benchmarks. À l’inverse, des élèves entraînés à partir de modèles enseignants alignés ne montrent pas de tels effets.

Les implications pratiques de ces résultats sont nombreuses. Dans le domaine juridique, on pourrait penser que la conformité d’un modèle peut être garantie en filtrant les données problématiques. L’article montre que cette approche est insuffisante. Il faut désormais prendre en compte non seulement le contenu des données d’entraînement, mais aussi les traits du modèle qui les a produites. Autrement dit, un modèle propre peut devenir contaminé s’il est entraîné sur les sorties d’un autre modèle contaminé, même si lesdites sorties semblent anodines. Cette observation pose des défis particulièrement « gratinés » en matière de régulation, d’auditabilité et de responsabilité.

Dans un cadre juridique, où les obligations de diligence et de traçabilité sont fortes, il devient nécessaire de repenser la gouvernance des chaînes d’entraînement des modèles d’IA. Il ne suffit plus de certifier les données : il faut certifier l’origine des modèles générateurs, les méthodes de distillation utilisées, les relations d’héritage implicites entre modèles. Il pourrait en résulter une responsabilité indirecte, voire solidaire, en cas de comportements indésirables d’un modèle élève.

Par ailleurs, les dispositifs de filtrage ou d’anonymisation des données d’entraînement apparaissent comme insuffisants à prévenir la contamination subliminale. Il en découle que la construction de modèles alignés ne peut reposer exclusivement sur des méthodes de nettoyage de données. Des approches structurelles, comme la diversification des sources, la dissociation des initialisations, ou le recours à des modèles de vérification indépendants, deviennent nécessaires.

Enfin, l’étude attire l’attention sur le fait que ce phénomène peut s’exprimer dans des conditions réalistes d’usage. Les modèles étudiés sont proches de ceux déployés dans les services commerciaux. Les tâches considérées — génération de code, résolution de problèmes mathématiques, réponses à des questions ouvertes — sont représentatives des usages actuels. Cela confère au résultat une portée pratique immédiate. Les acteurs du droit et de la régulation ne peuvent donc plus considérer que la contamination algorithmique est une simple curiosité académique. Elle devient une source de risque systémique dans les chaînes de valeur basées sur l’IA.

Ce constat appelle à un surcroît de vigilance. Il invite à définir des principes de gouvernance des modèles fondés non seulement sur les contenus observables, mais aussi sur la structure des modèles, leur histoire, leurs dépendances cachées.

En somme, l’apprentissage subliminal est une forme inédite de contamination comportementale entre intelligences artificielles. Il échappe aux filtres traditionnels, repose sur des mécanismes structurels profonds, et se manifeste dans des contextes d’usage réel. Il remet en question certaines hypothèses fondatrices de l’ingénierie de l’alignement, et soulève des enjeux juridiques réels en matière de responsabilité, de transparence, et de sécurité.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Maladie ou accident pendant les vacances

Selon l’art. 329a al. 1 CO, l’employeur accorde au travailleur, chaque année de service, quatre semaines de vacances au moins et cinq semaines au moins aux travailleurs jusqu’à l’âge de 20 ans révolus. D’après l’art. 329d CO, l’employeur verse au travailleur le salaire total afférent aux vacances et une indemnité équitable en compensation du salaire en nature (al. 1). Tant que durent les rapports de travail, les vacances ne peuvent pas être remplacées par des prestations en argent ou d’autres avantages (al. 2).

Selon la jurisprudence fédérale rendue en application de ces dispositions, en règle générale, une maladie qui survient au cours d’une période de vacances préalablement fixée autorise le travailleur à réclamer des vacances de remplacement d’une durée égale; le remplacement des vacances n’est exclu que dans l’éventualité où la maladie empêche certes l’accomplissement du travail mais pas la récupération physique et psychique correspondant au but des vacances (cf. arrêt TF 4A_319/2019 du 19 mars 2020 consid. 7).

Si une affection à la santé se manifeste pendant les vacances, il faut distinguer l’empêchement de travailler de l’empêchement de bénéficier des vacances. Il y a des circonstances qui entraînent un empêchement de travailler, mais qui n’empêchent pas pour autant le travailleur de bénéficier des vacances.

Ainsi, pour qu’une affection empêche la réalisation du but des vacances, elle doit tout d’abord être suffisamment sérieuse, au point d’entraver la récupération physique ou psychique du travailleur (p.ex. douleurs importantes, gêne constante, troubles psychologiques tels que dépression nerveuse, etc.). Des atteintes à la santé, en soi bénignes au sens médical du terme, peuvent avoir des conséquences qui empêchent la détente, comme une immobilisation complète, une isolation totale de l’extérieur, ou un suivi médical constant et prolongé, car l’isolement ou l’immobilisation qui en découle ôte au travailleur la maîtrise de son emploi du temps. En revanche, des indispositions ou des blessures de faible gravité, comme un doigt cassé, une cheville foulée ou une indigestion, ne provoquent pas une inaptitude à se reposer ou se distraire.

Outre l’intensité de l’affection et ses effets sur le choix de l’emploi du temps, il faut tenir compte de sa durée, soit son prolongement dans le temps, y compris une éventuelle période de convalescence.

Une impossibilité pour le travailleur de pratiquer une activité particulière qu’il entendait mener durant ses vacances ne saurait être prise en considération; l’intéressé étant tenu de mettre à profit ses vacances et tenter d’en atteindre le but d’une autre manière .

En outre, le travailleur qui tombe malade durant ses vacances doit apporter les moyens de preuve attestant son incapacité d’exercer son droit aux vacances. Lorsque la preuve de cette incapacité est apportée par la production d’un certificat médical, il appartient au travailleur d’obtenir un certificat qui constate clairement une incapacité de bénéficier du temps de vacances (cf. CEROTTINI, art. 329a CO, p. 483; WYLER/HEINZER 2024, p. 547).

(Arrêt de la Ie Cour administrative du Tribunal cantonal [FR] 601 2024 59 du 7 juillet 2025, consid. 6.2)

Me Philippe Ehrenström, avocat LLM

Publié dans Vacances | Tagué , , , , , , | Laisser un commentaire

L’intelligence artificielle et la nature du travail: le cas des développeurs

Quelques réflexions issues du « Working Paper 25-021 » de la Harvard Business School, rédigé par Manuel Hoffmann, Sam Boysel, Frank Nagle, Sida Peng et Kevin Xu concernant « Generative AI and the Nature of Work » (https://www.hbs.edu/faculty/Pages/item.aspx?num=66593).

La recherche aborde la question suivante : au-delà des seuls gains de productivité, comment l’intelligence artificielle, en particulier dans sa version générative, modifie-t-elle la nature du travail dans l’économie contemporaine, en particulier dans les secteurs intensifs en capital humain comme le développement logiciel ? Pour y répondre, les auteurs s’appuient sur un terrain d’étude concret: l’introduction à grande échelle de GitHub Copilot, un outil d’intelligence artificielle générative conçu pour assister les développeurs de logiciels, auprès d’un groupe de professionnels et de contributeurs actifs dans des projets de logiciels open source sur la plateforme GitHub.

Cette plateforme, qui constitue l’un des espaces centraux de collaboration pour les développeurs du monde entier, présente la particularité d’enregistrer de manière fine et transparente l’ensemble des actions menées par ses utilisateurs. Cela permet aux chercheurs d’observer, sur une période de deux ans, les effets d’un changement technologique majeur sur les pratiques effectives de travail. Plus précisément, GitHub a mis en place un programme de gratuité de Copilot fondé sur un classement interne des projets les plus influents, octroyant un accès libre à l’IA à certains développeurs — dits mainteneurs — tandis que d’autres n’y avaient pas accès. Ce système a offert aux auteurs un cadre de quasi-expérience naturelle, idéal pour une identification causale rigoureuse des effets de l’outil.

Le point de départ de l’étude repose sur une observation bien connue mais rarement quantifiée avec autant de précision : dans l’économie de la connaissance, les travailleurs les plus compétents et les plus productifs se voient souvent confier des responsabilités supplémentaires, notamment managériales, ce qui les éloigne progressivement de leurs tâches initiales, dites de cœur de métier. Cette logique est visible dans de nombreux domaines, y compris le monde académique, les grandes entreprises technologiques ou les projets open source. À mesure que les projets gagnent en importance, les développeurs se voient sollicités pour résoudre des tickets, relire du code d’autrui, interagir avec des contributeurs novices ou encore structurer le projet dans son ensemble. Cette surcharge de coordination nuit souvent à la contribution technique directe des personnes les plus expérimentées.

L’introduction d’un outil comme GitHub Copilot, qui permet d’automatiser ou d’accélérer la production de code, modifie potentiellement cette dynamique. La question posée par les auteurs est donc de savoir si l’accès à une intelligence artificielle générative conduit les travailleurs concernés à réorienter leur temps vers les activités les plus essentielles — dans le cas étudié, le codage — et à se désengager, au moins partiellement, des activités périphériques, notamment la gestion de projet. Pour répondre à cette question, les auteurs ont formulé une série d’hypothèses relatives à la réallocation des tâches, à la nature des interactions sociales, au degré d’exploration ou de spécialisation des activités, ainsi qu’à la variation des effets selon le niveau de compétence initial des utilisateurs.

Dans leur cadre méthodologique, les auteurs ont retenu un échantillon de plus de 50 000 développeurs actifs identifiés comme mainteneurs sur GitHub, c’est-à-dire des individus jouant un rôle clé dans la coordination et la validation du travail sur les projets. Les données couvrent la période allant de juin 2022 à juin 2023 et combinent des informations publiques issues de la plateforme avec des données confidentielles fournies par GitHub concernant l’accès à Copilot. Les chercheurs distinguent deux grandes catégories d’activités : d’une part le codage, qui inclut la création de dépôts, les ajouts de code, les pushs et autres actions de développement technique ; d’autre part la gestion de projet, qui englobe la gestion des tickets (issues), les relectures de code, l’attribution des tâches à d’autres membres de l’équipe, ou encore la participation aux discussions techniques. Ces catégories leur permettent de quantifier la part relative consacrée à chaque type d’activité avant et après l’accès à l’outil d’IA.

L’analyse empirique repose sur une technique d’estimation dite de régression par discontinuité, exploitant le fait que le classement déterminant l’éligibilité au programme de gratuité de Copilot est inconnu des développeurs, et donc non manipulable. En comparant les comportements de développeurs très proches de part et d’autre du seuil d’éligibilité, les auteurs parviennent à isoler l’effet causal de l’accès à l’outil. Ils testent par ailleurs la robustesse de leurs résultats à l’aide de méthodes alternatives.

Les résultats principaux sont notables. L’accès à Copilot induit une augmentation significative de la part de temps consacré au codage (+5,4 points de pourcentage en moyenne, soit une hausse relative de 12,4 %), et une réduction tout aussi marquée de la part allouée à la gestion de projet (−10 points de pourcentage, soit une baisse relative de 24,9 %). Ce rééquilibrage en faveur du cœur de métier suggère que l’intelligence artificielle agit comme un levier de recentrage du travail technique, en libérant les individus des tâches les plus consommatrices en coordination. Il s’agit ici non pas seulement d’un gain d’efficacité, mais d’une transformation qualitative de la structure même du travail.

En approfondissant l’analyse, les auteurs montrent que cette reconfiguration s’accompagne d’une transformation du mode de collaboration. Les développeurs ayant accès à Copilot interagissent moins avec leurs pairs : ils forment des groupes plus restreints, sollicitent moins de relectures, assignent moins de tâches à autrui, et ferment les tickets plus rapidement. En d’autres termes, l’IA leur permet d’agir plus en autonomie, en contournant les frictions de collaboration inhérentes au travail distribué. Cela ne signifie pas une disparition du collectif, mais plutôt une réduction du besoin de coordination explicite, remplacée en partie par la capacité de l’IA à générer du code, à proposer des solutions ou à accompagner l’utilisateur dans sa logique de raisonnement.

Par ailleurs, l’étude montre que les utilisateurs de Copilot tendent à s’orienter vers de nouveaux projets, à explorer de nouveaux langages de programmation, et à élargir leur spectre d’action. Cette dynamique d’exploration est interprétée comme un effet indirect de la réduction des coûts cognitifs d’entrée sur un nouveau territoire technologique. En permettant une montée en compétence accélérée, l’IA rend plus accessibles des domaines techniques jusqu’alors réservés à des spécialistes. Les développeurs accèdent ainsi plus fréquemment à des technologies mieux rémunérées, ce qui se traduit, selon les estimations des auteurs, par un potentiel de valorisation salariale annuelle de près de 1 700 dollars par personne.

Un point particulièrement saillant de l’étude concerne l’hétérogénéité des effets selon le niveau de compétence initial. Les développeurs les moins expérimentés — mesurés par divers indicateurs tels que l’ancienneté sur la plateforme, le nombre de suiveurs, ou encore le centralité des contributions — bénéficient davantage de l’IA que leurs homologues plus chevronnés. Ils recentrent plus fortement leur activité sur le codage et délestent davantage les tâches de coordination. Cette observation corrobore l’idée selon laquelle l’intelligence artificielle générative pourrait jouer un rôle d’égalisation des capacités, en augmentant de manière disproportionnée la productivité des profils moins aguerris. Dans un contexte où les projets open source sont souvent confrontés à un déséquilibre entre une base large de contributeurs occasionnels et un petit noyau de mainteneurs surchargés, cette redistribution des capacités apparaît porteuse d’effets positifs.

L’impact de Copilot ne se limite pas à une amélioration de la répartition des tâches : les auteurs vérifient également que la qualité des contributions n’est pas dégradée, bien au contraire. Les projets bénéficiant d’un accès à l’IA présentent un taux de vulnérabilités critiques réduit de plus de 30 %, signe que l’assistance apportée par l’IA ne se fait pas au détriment de la sécurité ou de la fiabilité du code produit. Cela contredit certaines inquiétudes selon lesquelles l’automatisation du développement pourrait introduire des erreurs ou des failles non détectées.

Les implications de cette étude pour le monde du travail, notamment dans un cadre juridique et organisationnel, sont nombreuses. Le premier enseignement concerne la redéfinition des postes dans les métiers techniques : les outils d’IA permettent une spécialisation accrue des tâches et pourraient justifier une actualisation des descriptions de fonctions, notamment pour refléter une moindre nécessité de coordination humaine. Le deuxième concerne l’impact potentiel sur les structures hiérarchiques. Si l’IA permet à chacun de résoudre des problèmes de manière autonome, elle diminue mécaniquement le besoin de supervision intermédiaire, ce qui pourrait conduire à un aplatissement des structures organisationnelles. Troisièmement, les effets redistributifs de l’IA sur les compétences posent la question de l’évaluation des performances, des grilles salariales et des parcours de progression. Le fait que les moins expérimentés en tirent davantage parti interroge sur les politiques de formation, d’encadrement ou de mentorat. Enfin, la nature du lien de subordination pourrait être affectée, dans la mesure où les collaborateurs deviennent plus autonomes dans leur manière de s’organiser, ce qui remet en cause certaines pratiques de contrôle managérial fondées sur la présence, le reporting ou l’intermédiation humaine.

Les auteurs concluent leur étude en soulignant que leur approche, fondée sur une observation fine, longue et naturaliste des effets de l’IA, permet de dépasser les limites des expérimentations en laboratoire, souvent restreintes à de petits échantillons sur des durées courtes. En révélant les transformations de fond à l’œuvre dans le travail distribué et dans la production de biens communs numériques, leur travail offre un éclairage précieux à la fois pour les chercheurs, les décideurs publics, les responsables des ressources humaines et les praticiens du droit. Il invite à repenser la manière dont les outils d’IA s’intègrent dans les chaînes de valeur, comment ils redéfinissent les contours du travail qualifié, et comment ils modifient les équilibres collectifs au sein des organisations.

En somme, cette étude ne se contente pas de constater des gains de productivité. Elle soutient que l’intelligence artificielle générative agit comme un catalyseur de transformation des pratiques professionnelles, en redistribuant les tâches, en favorisant l’autonomie, en stimulant l’exploration et en corrigeant partiellement les asymétries de compétence. Dans une perspective juridique, elle ouvre la voie à une réflexion profonde sur l’évolution du contrat de travail, sur la définition des fonctions, sur les critères de rémunération et sur la gouvernance des relations professionnelles à l’ère de l’intelligence artificielle.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle

Publié dans intelligence artificielle | Tagué , , , | Laisser un commentaire

Kiss Cam, adultère et résiliation des rapports de travail

On a beaucoup parlé des Kiss Cams ces derniers jours, i.e. des ces dispositifs qui, dans les grandes enceintes sportives ou récréatives, parcourent la foule et individualisent des couples qui sont alors censés s’embrasser sur grand écran pendant un temps mort, une pause pendant un concert, etc. sous les applaudissements de la foule. Il y eu toutefois, lors d’un récent concert de Coldplay, un léger problème : le couple mis en valeur par la Kiss Cam était adultère, et Monsieur, CEO d’une boite de la tech, enlaçait tendrement sa responsable des ressources humaines, et non sa tendre moitié. Celle-ci – en citoyenne américaine moderne – a instantanément effacé son nom de femme mariée de ses « réseaux sociaux » (comme on dit). L’employeur a, quant à lui, pris acte de la « démission » de son CEO, dont il a jugé qu’il avait gravement failli à ses obligations.

Et en Suisse ?

Dans un curieux ATF 129 III 380, consid. 3.2, le Tribunal fédéral avait refusé de reconnaître le caractère justifié d’un licenciement avec effet immédiat d’une employée qui entretenait des relations coupables avec l’époux de la directrice générale et administratrice unique de l’employeur, et en était l’actionnaire unique, quand bien même l’intéressée travaillait dans ce qui était aussi le domicile conjugal. Le Tribunal fédéral semble en effet avoir retenu que l’employeur était une personne morale (pas de Durchgriff ??) et que celle-ci devrait pouvoir se prévaloir de son indépendance juridique. Le cas ne pouvait être considéré comme identique à celui où la relation concernerait le mari de l’employeur lui-même [i.e. l’employeur comme personne physique]. On ne pourrait en effet exclure qu’une relation avec le mari de la directrice dans ce cas puisse empoisonner les relations de travail au point de justifier une résiliation extraordinaire du contrat. Par ailleurs le mariage entre la directrice et son époux apparaissait déjà « brisé » avant l’adultère.

Je ne sais pas trop ce qu’il faut conclure de cette curiosité, mais le Tribunal fédéral ne semble en tout cas pas écarter l’idée, a priori, que l’on puisse retenir qu’un adultère puisse aboutir à la résiliation – même immédiate – des rapports de travail.

Me Philippe Ehrenström, avocat, LLM

Publié dans Libertés, Licenciement abusif, Licenciement immédiat | Tagué , , , , | Laisser un commentaire

Résiliation unilatérale de la clause de non-concurrence par l’employeur et sort de l’indemnité de carence

Le Tribunal fédéral, dans un arrêt 4A_5/2025 du 26 juin 2025, destiné à la publication, revient sur le sort de l’indemnité de carense (Karenzentschädigung) en cas de résiliation unilatérale de la clause de non-concurrence par l’employeur.

Dans le cas d’espèce, le contrat prévoyait une clause de non-concurrence de deux années, rémunérée par une indemnité de carence de 50% du dernier salaire reçu, sans bonus. L’employeur résilie unilatéralement la convention et refuse de payer l’indemnité de carence.

Tiré du consid. 4 (traduction libre) :

4. La recourante [l’employeuse] conteste ensuite le fait que l’instance précédente lui ait refusé le droit de résilier unilatéralement la clause de non-concurrence.

4.1. L’instance de première instance n’avait pas eu à se prononcer sur la résiliation de la clause de non-concurrence, car elle avait considéré celle-ci comme nulle. L’instance précédente a considéré que la recourante avait certes informé la partie adverse, par courrier du 28 septembre 2021, qu’elle n’était plus intéressée par la clause de non-concurrence et qu’elle la résiliait donc avec effet au 31 décembre 2021, ce qui entraînait également la suppression de l’indemnité de carence. Toutefois, selon l’instance précédente, un tel droit de résiliation ne résulte ni du contrat de travail ni de la loi. Se pose donc la question de la validité d’une renonciation unilatérale de l’employeur à une clause de non-concurrence assortie d’une indemnité de carence.

4.2.

4.2.1. L’instance précédente a renvoyé à juste titre à l’ATF 78 II 230. Il s’agissait là de la recevabilité d’une convention selon laquelle l’employeur pouvait renoncer a posteriori à une clause de non-concurrence rémunérée et se libérer ainsi de l’obligation de verser une indemnité [de carence] pour le temps de préavis. Le Tribunal fédéral a estimé que la clause de non-concurrence constituait un rapport contractuel particulier. Il a souligné que la loi prévoyait des solutions adaptées pour la protection contre le licenciement dans le cadre d’un contrat de travail existant et pour la protection de l’avenir économique de l’ancien employé soumis à une clause de non-concurrence. Il n’est pas admissible « de remplacer les mesures de protection ou même de les doubler en les combinant ». Il serait contraire à l’ordre établi par la loi de transférer la protection contre le licenciement à une clause de non-concurrence qui lui est étrangère. La question de la validité d’une clause contractuelle prévoyant une clause de non-concurrence prenant effet à la fin du contrat de travail doit donc être appréciée selon les dispositions spéciales des art. 356 à 360 aCO (aujourd’hui art. 340 à 340c CO) et selon les règles générales applicables à tous les contrats, à l’exclusion des dispositions spéciales relatives aux contrats de travail en cours (ATF 78 II 230, consid. 2c). Dans cette affaire, les parties avaient convenu que l’employeur pouvait renoncer a posteriori à la clause de non-concurrence déjà en vigueur, auquel cas le travailleur avait droit à une indemnité pour les trois mois restants. Le Tribunal fédéral a examiné si un tel accord n’avait pas pour effet de compromettre de manière inéquitable l’avenir économique du travailleur (ATF 78 II 230 E. 3a). Pour le Tribunal fédéral, il ne faisait aucun doute que l’employeur, en cas d’interdiction de concurrence rémunérée, « ne peut résilier le contrat sans accord correspondant, ni avec effet immédiat, ni en respectant un délai de préavis ». Il ne peut « non plus se libérer de l’obligation de verser la rémunération convenue en renonçant à l’interdiction ». Selon le Tribunal fédéral, cela découle « de la nature même de la clause de non-concurrence rémunérée en tant que contrat bilatéralement contraignant ». En revanche, il n’y a pas de raison que les parties ne puissent pas prévoir contractuellement une possibilité de résiliation en faveur de l’ancien employeur dans le cadre d’une clause de non-concurrence rémunérée. Cela est en principe également admissible « dans tout autre contrat réciproque » (ATF 78 II 230 E. 3b).

4.2.2. Le Tribunal fédéral a renvoyé à cet arrêt publié dans son arrêt 5A_89/2019 du 1er mai 2019. Dans cette affaire, un employé avait fait valoir son droit à une indemnité de carence et demandé une mainlevée provisoire. Le Tribunal fédéral a repris la formulation de l’ATF 78 II 230 et a déclaré que la clause de non-concurrence rémunérée était un contrat bilatéral dans lequel l’indemnité de carence apparaissait comme une contrepartie à la renonciation à la concurrence par l’employé. Les parties pouvaient toutefois convenir que l’employeur pouvait renoncer à la clause de non-concurrence, auquel cas l’indemnité de carence n’était plus due (cf. E. 5.2.1 : « Lorsqu’elle est liée au paiement d’une indemnité de carence [Karenzentschädigung], elle prend la forme d’un contrat bilatéral dans lequel le versement de l’indemnité est la contreprestation de l’abstention de faire concurrence du travailleur […]. Les parties peuvent toutefois convenir que l’employeur puisse renoncer au bénéfice de la prohibition, de sorte que l’indemnité de carence n’est alors pas due […] »).

4.3. Une partie de la doctrine s’oppose à la jurisprudence du Tribunal fédéral. (…) En conclusion, la doctrine précitée se prononce en faveur d’une modification de la jurisprudence du Tribunal fédéral. En effet, comme déjà mentionné, le Tribunal fédéral a expressément déclaré que, en cas d’interdiction de concurrence rémunérée, l’employeur « ne peut pas résilier le contrat, ni avec effet immédiat, ni en respectant un délai de préavis, sans accord correspondant ». Il a en outre précisé que l’employeur ne pouvait « se libérer de son obligation de verser la contre-prestation convenue en renonçant à l’interdiction » (ATF 78 II 230, consid. 3b). Le Tribunal fédéral n’a pas remis en cause cette jurisprudence dans son arrêt 5A_89/2019 du 1er mai 2019. 4.4.2. Au regard du principe de sécurité juridique, une modification de la jurisprudence doit reposer sur des motifs objectifs sérieux, qui doivent être d’autant plus importants que l’application du droit jugée erronée ou dépassée a été considérée comme correcte pendant longtemps. Un changement de pratique ne peut en principe être justifié que si la nouvelle solution correspond à une meilleure compréhension de l’objectif de la loi, à une modification des circonstances extérieures ou à une évolution des conceptions juridiques (ATF 147 V 342 consid. 5.5.1 ; 146 I 105 consid. 5.2.2 ; 145 V 50 consid. 4.3.1 ; 141 II 297 E. 5.5.1 ; 140 V 538 E. 4.5 ; avec références).

4.4.3. La recourante s’appuie en premier lieu sur des doctrines qui veulent reconnaître à l’employeur un droit unilatéral de renonciation et de résiliation même en l’absence d’une convention contractuelle correspondante. Les publications correspondantes ne permettent toutefois pas de déterminer dans quelle mesure cette opinion correspond à une meilleure compréhension de l’objectif de la loi. Un changement des circonstances extérieures ou une évolution des conceptions juridiques n’est pas non plus apparent.

4.4.4. Au contraire, une autre partie de la doctrine salue la solution du Tribunal fédéral. Se référant à l’ATF 78 II 230, elle souligne que l’interdiction de concurrence, qui est en réalité unilatérale, devient un contrat bilatéral dès lors qu’une indemnité de carence est convenue. Comme pour tous les contrats bilatéraux, l’employeur ne peut pas simplement obtenir la caducité de l’indemnité de carence en renonçant unilatéralement à l’interdiction de concurrence. la suppression de l’indemnité de carence. Il n’en va autrement que si l’employeur s’est réservé cette possibilité dans le contrat. En d’autres termes, une clause de non-concurrence assortie d’une indemnité de carence ne peut être levée que d’un commun accord (…)  Il convient en outre de noter que le salarié ne profiterait qu’en apparence de la suppression de la clause de non-concurrence. En effet, un droit de résiliation unilatéral permettrait à l’employeur de renoncer à la clause de non-concurrence en fonction de l’évolution de la valeur de la clause de non-concurrence. En conséquence, le salarié serait toujours dans une situation moins favorable. Sans accord contractuel préalable prévoyant un droit de résiliation de la clause de non-concurrence, cela ne saurait être admissible. Il convient en outre de noter que l’indemnité de carence sert à atténuer les conséquences négatives de la clause de non-concurrence. Si le domaine d’activité concerné par l’interdiction s’avère n’avoir plus d’intérêt économique non seulement pour l’employeur, mais aussi pour le salarié, ce dernier ne devrait pas perdre en plus l’indemnité de carence. En effet, inversement, le travailleur ne peut pas non plus renoncer unilatéralement à l’indemnité de carence et se libérer ainsi de la clause de non-concurrence (…). [Un auteur] mentionne le cas où l’intérêt de l’employeur à l’interdiction de concurrence disparaît pour des raisons qui lui sont [propres]. Dans ce cas, la confiance du salarié dans l’orientation contractuelle de l’indemnité de carence doit être protégée. Celui-ci doit pouvoir choisir si l’interdiction de concurrence et l’indemnité pour congé restent en vigueur ou si la clause de non-concurrence est résiliée par un accord de résiliation (« contrarius actus ») (LUKAS COTTI, Das vertragliche Konkurrenzverbot, 2001, p. 142, n° 349).

4.4.5. Il s’ensuit qu’il n’y a pas lieu de modifier la jurisprudence du Tribunal fédéral. Les conditions d’un changement de pratique (voir ci-dessus E. 4.4.2) ne sont pas remplies.

Me Philippe Ehrenström, avocat, LLM

Publié dans Clause de non concurrence | Tagué , , , , , | Laisser un commentaire

L’intelligence artificielle et le marché du travail suisse

L’analyse de P. SCHNELL / M. SALVI, Zukunftssichere Berufe? Wie künstliche Intelligenz den Schweizer Arbeitsmarkt verändert (avenir suisse, 01.11.2024) débute par une mise en perspective des débats entourant l’impact de l’intelligence artificielle sur l’emploi. Si certains craignent une destruction massive de postes, d’autres soulignent les opportunités offertes par ces technologies. L’approche choisie ici se veut nuancée et empirique. Elle part du constat que l’IA, loin de produire des effets homogènes, génère des dynamiques complexes, qui varient selon les secteurs, les métiers, les niveaux de qualification et les régions. Pour le marché suisse du travail, cette complexité s’accroît du fait des particularités structurelles de l’économie helvétique, fortement tertiarisée, orientée vers les services à forte valeur ajoutée, et marquée par une dualité entre main-d’œuvre hautement qualifiée et personnel d’exécution.

L’article met en évidence les différences entre deux formes d’intelligence artificielle. L’IA analytique ou symbolique, fondée sur des règles explicites et des bases de données structurées, est présente depuis plusieurs décennies, notamment dans les domaines de la finance, de l’assurance ou de la logistique. En revanche, l’IA dite générative ou basée sur l’apprentissage machine, dont font partie les modèles de langage tels que ChatGPT, représente une rupture plus récente. Cette dernière repose sur la capacité des machines à apprendre à partir de données massives, sans instructions humaines détaillées, et à produire des résultats nouveaux (textes, images, décisions). Cette évolution soulève des questions inédites sur les tâches pouvant être automatisées, la substitution potentielle de certaines compétences humaines, et la réorganisation des chaînes de valeur.

Pour mesurer l’impact prévisible de l’IA sur le marché suisse du travail, les auteurs s’appuient sur une méthodologie mixte. Ils croisent plusieurs sources de données : des études internationales, des analyses sectorielles, des enquêtes auprès des employeurs et des modélisations statistiques basées sur les descriptions de poste (professions selon la nomenclature CH-ISCO). L’un des apports majeurs de l’article est de fournir une estimation granulaire du degré d’exposition à l’IA des différents métiers exercés en Suisse. Cette estimation repose sur la nature des tâches associées à chaque profession, en distinguant celles que l’IA peut accomplir aujourd’hui de celles qui restent hors de sa portée.

Les résultats indiquent que l’impact potentiel de l’IA sur l’emploi est en moyenne modéré, mais qu’il existe de fortes disparités. Environ 25 à 30 % des postes en Suisse sont considérés comme moyennement à fortement exposés à l’IA. Cela ne signifie pas nécessairement que ces postes vont disparaître, mais plutôt que leur contenu pourrait évoluer de manière significative. Les métiers les plus exposés sont souvent ceux du secteur financier, de la programmation, de la traduction, ou encore de l’administration. À l’inverse, les professions liées aux soins, à l’éducation, à l’artisanat ou à la construction sont nettement moins exposées, car elles mobilisent des compétences sensorielles, relationnelles ou physiques que les machines ne maîtrisent pas encore.

L’analyse révèle aussi un autre facteur déterminant : le niveau de qualification. Les emplois hautement qualifiés sont souvent plus exposés à l’IA, mais aussi mieux protégés contre ses effets destructeurs. En effet, l’IA vient en général compléter ou augmenter les capacités des professionnels qualifiés, plutôt que les remplacer. Cela se traduit par une montée en puissance des outils d’assistance à la décision, d’automatisation de certaines tâches répétitives, ou de génération de contenu. Ces transformations peuvent accroître la productivité et redéfinir les contours des métiers, sans entraîner nécessairement une baisse de l’emploi.

En revanche, certains emplois intermédiaires, comme ceux liés à la saisie de données, à la traduction ou à l’assistance administrative, pourraient faire l’objet d’une substitution plus marquée. Ces professions reposent sur des tâches routinières, symboliques et facilement codifiables, qui correspondent précisément au champ d’action privilégié des technologies d’IA actuelles. À moyen terme, ces évolutions pourraient entraîner un déplacement de l’emploi vers des fonctions plus créatives, interpersonnelles ou techniques, avec un besoin accru de formation et de requalification.

Un autre aspect analysé dans l’article est l’effet différencié de l’IA selon les branches économiques. Le secteur financier, par exemple, est particulièrement concerné par les outils d’automatisation des processus, la détection de fraude, l’analyse prédictive ou la génération de rapports. Dans l’assurance, l’IA est déjà utilisée pour traiter des sinistres simples, générer des réponses automatiques aux clients, ou estimer des risques. L’impact sur l’emploi dépendra largement de la capacité des entreprises à réallouer les ressources vers des tâches à plus forte valeur ajoutée. Dans l’industrie pharmaceutique ou les technologies médicales, l’IA sert à accélérer la recherche, à analyser des résultats cliniques ou à optimiser les essais. Ici aussi, elle joue un rôle d’amplificateur des capacités humaines, mais nécessite des compétences nouvelles.

Le domaine de l’enseignement et de la formation professionnelle est lui aussi appelé à évoluer. L’IA peut être mobilisée pour personnaliser les parcours d’apprentissage, identifier les difficultés d’un élève, ou assister l’enseignant dans l’évaluation. Toutefois, la dimension humaine, relationnelle et contextuelle de la pédagogie rend peu probable une substitution massive. Dans les soins de santé, l’IA permet des diagnostics assistés, l’analyse d’images médicales ou la planification de traitements. Mais les fonctions d’accompagnement, de communication avec les patients et de gestion des situations imprévues demeurent largement humaines.

Sur le plan territorial, l’article note que les régions fortement urbanisées et technologiquement développées sont plus exposées à l’IA. Cela tient à la concentration des entreprises numériques, des institutions financières et des centres de recherche dans des zones comme Zurich, Genève ou Bâle. Cette concentration géographique des effets appelle une réflexion sur les politiques de soutien régional et sur la formation continue, afin d’éviter des disparités croissantes entre cantons.

L’article insiste également sur le fait que l’impact de l’IA dépendra moins de la technologie elle-même que de la manière dont elle est adoptée, régulée et accompagnée. Les choix stratégiques des entreprises, les négociations sociales, les cadres réglementaires et les politiques publiques joueront un rôle décisif dans l’orientation des transformations. Le droit du travail devra s’adapter à des formes nouvelles d’organisation, à des redéfinitions de poste, à des exigences accrues de transparence algorithmique, et à des enjeux éthiques liés à la surveillance, à la notation automatisée ou à la sélection algorithmique des candidatures.

Les auteurs soulignent la nécessité d’intégrer les partenaires sociaux dans les processus de transformation induits par l’IA. La concertation, la négociation collective et l’information préalable des travailleurs apparaissent comme des instruments-clés pour garantir un déploiement équitable et maîtrisé de ces technologies. Par ailleurs, l’ajustement des systèmes de formation professionnelle, élément central du modèle suisse, sera indispensable. Il ne s’agit pas seulement d’ajouter des compétences numériques, mais aussi de développer la capacité à collaborer avec des outils d’IA, à interpréter leurs suggestions, à en comprendre les limites, et à intégrer l’éthique dans l’usage de ces instruments.

Un point d’attention particulier est accordé à la question de l’inégalité. L’IA risque, si elle est mal régulée, d’accentuer les fractures existantes. Les travailleurs les moins qualifiés, ou les plus éloignés de la formation continue, pourraient être laissés pour compte. Les femmes, surreprésentées dans certains métiers peu exposés mais peu valorisés, pourraient voir leur progression professionnelle freinée. À l’inverse, les profils déjà favorisés, maîtrisant les outils numériques et occupant des positions d’encadrement, pourraient tirer un avantage accru de l’IA. Ces déséquilibres invitent à une vigilance accrue, notamment en matière de non-discrimination, d’égalité des chances et de protection contre l’obsolescence des compétences.

Enfin, l’article conclut en affirmant que l’IA ne détruira pas massivement l’emploi, mais qu’elle en modifiera profondément la nature. Les tâches vont se recomposer, les compétences se transformer, les carrières se redessiner.

Pour les avocats, cela implique de repenser les catégories traditionnelles du droit, d’anticiper les conflits liés à l’usage de l’IA dans le management ou le recrutement, et de contribuer à la définition de nouveaux équilibres entre innovation, protection et dignité au travail. Le marché suisse, avec sa tradition de partenariat social, son tissu économique diversifié et son système de formation duale, dispose d’atouts pour accompagner cette mutation. Mais ces atouts devront être mobilisés activement, au risque sinon de subir les effets d’une transition technologique qui, si elle n’est pas maîtrisée, pourrait devenir une source de polarisation et de tensions sociales durables.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

IA, Large Language Models (LLMs) et protection des données

L’article de Y. Shanmugarasa et al., The Privacy Paradox of Large Language Models: Advancements, Privacy Risks, and Mitigation (ArXiv :2506.12699v2 [cs.CR] 19 juin 2025 – https://arxiv.org/pdf/2506.12699) s’ouvre sur un constat: les modèles de langage à grande échelle, ou LLM (Large Language Models), représentent une avancée technologique, mais leur déploiement soulève des enjeux de protection des données sans précédent. Ces modèles, comme GPT-4, Claude ou Gemini, sont capables de générer du texte cohérent, d’analyser des documents, de coder, de raisonner, voire de dialoguer avec les utilisateurs. Mais cette puissance repose sur l’absorption de vastes quantités de données textuelles, parmi lesquelles figurent fréquemment des informations personnelles, confidentielles, voire sensibles. Cette ingestion massive de contenus, souvent extraits du web ou issus d’interactions humaines, donne naissance à un paradoxe : les LLM sont à la fois outils d’assistance et vecteurs potentiels d’atteintes à la vie privée.

Pour aborder cette problématique, les auteurs du texte proposent une systématisation des menaces à la confidentialité à travers quatre niveaux d’analyse. Le premier concerne les données d’entraînement, c’est-à-dire les informations utilisées pour « nourrir » le modèle. Le deuxième porte sur les prompts utilisateurs, c’est-à-dire les requêtes envoyées au modèle, qui peuvent elles aussi comporter des éléments personnels. Le troisième niveau s’intéresse au contenu généré par le modèle, car ce dernier peut involontairement reproduire des données sensibles. Enfin, le quatrième niveau aborde le cas des agents LLM, c’est-à-dire des systèmes autonomes capables d’utiliser les LLM pour interagir avec d’autres services ou manipuler l’environnement numérique. Chacune de ces couches expose l’utilisateur, ou même des tiers, à des risques différents mais interconnectés, qui nécessitent des contre-mesures adaptées et parfois complexes à mettre en œuvre.

En ce qui concerne l’entraînement des modèles, l’enjeu principal réside dans la mémorisation de données personnelles. Les LLM, notamment ceux de grande taille, ont été entraînés sur des corpus colossaux, parfois obtenus sans le consentement explicite des personnes concernées. Il peut s’agir de forums publics, de dépôts de code, de bases de données ouvertes ou de documents disponibles en ligne. Bien que les données soient en théorie anonymisées ou nettoyées, plusieurs recherches ont démontré que certains modèles peuvent régurgiter, à la demande ou par accident, des phrases exactes, des numéros de carte de crédit, des adresses, ou des éléments d’identification très précis. Cette régurgitation peut survenir de manière ciblée, lorsqu’un attaquant formule une requête spécifiquement conçue pour provoquer ce type de réponse, ou de manière fortuite, dans le cadre d’une interaction ordinaire.

La capacité des modèles à mémoriser certaines données repose souvent sur leur fréquence d’apparition et leur répétitivité. En d’autres termes, plus une donnée est présente dans le corpus d’entraînement, plus elle a de chances d’être mémorisée de manière verbatim. Ce phénomène soulève une difficulté juridique majeure, notamment en matière de droit à l’oubli et de conformité avec le RGPD ou son équivalent suisse. L’une des questions fondamentales reste de savoir s’il est possible de faire « désapprendre » une information à un modèle. Des travaux récents sur le « machine unlearning » visent précisément cet objectif, mais les méthodes actuelles demeurent coûteuses et incomplètes. Il est difficile, voire impossible, de garantir l’effacement total d’une donnée sans réentraîner le modèle entier.

Face à ces risques, différentes stratégies sont envisagées. Certaines consistent à améliorer le pré-traitement des données, en supprimant les éléments identifiables avant l’entraînement. D’autres recourent à des techniques de confidentialité différentielle, qui visent à injecter du bruit statistique dans les données pour empêcher l’extraction d’informations individuelles. Cependant, ces méthodes affectent souvent les performances du modèle, créant un arbitrage délicat entre utilité et protection. Les auteurs insistent sur le besoin de nouvelles approches hybrides, capables de moduler le niveau de confidentialité selon le contexte, et d’intégrer des garanties dès la phase d’entraînement.

Le deuxième niveau d’analyse porte sur les interactions entre l’utilisateur et le modèle, à travers les prompts. Ce que l’utilisateur écrit dans sa requête est souvent considéré comme éphémère ou sans conséquence, mais dans la réalité, ces textes sont fréquemment enregistrés, analysés et réutilisés pour améliorer les modèles. Il en résulte une autre forme d’exposition à la perte de confidentialité, d’autant plus insidieuse qu’elle repose sur une fausse perception de sécurité. Dans des environnements professionnels, comme le domaine juridique ou médical, les utilisateurs peuvent soumettre des cas réels, des documents sensibles, des éléments d’identification ou des scénarios impliquant des clients. Si ces données sont stockées et analysées sans contrôle, elles deviennent une source potentielle de fuite.

L’un des problèmes majeurs est que même des prompts apparemment neutres peuvent, par inférence, révéler des informations personnelles. Par exemple, une question sur la légalité d’une situation spécifique peut trahir l’origine géographique de l’utilisateur, son statut juridique ou ses préférences. De plus, la conservation des logs, souvent motivée par des impératifs d’amélioration des services, crée une archive involontaire de données personnelles difficile à contrôler.

Plusieurs pistes techniques sont proposées pour atténuer ces risques. Certaines solutions fonctionnent au niveau local, en anonymisant le prompt avant son envoi, par détection automatique des entités nommées ou par techniques de masquage. D’autres introduisent des formes d’obfuscation cryptographique, qui rendent le sens du prompt opaque pour un observateur externe, mais lisible pour le modèle. Ces approches nécessitent toutefois des compétences spécifiques et ne sont pas encore disponibles de manière généralisée. Un défi supplémentaire réside dans la standardisation de ces protections, et dans leur intégration transparente dans les interfaces utilisateur.

Le troisième niveau étudié par l’article concerne le contenu généré par le modèle. Même si le prompt est propre, même si l’entraînement a été filtré, le modèle peut produire un texte qui réintègre des données sensibles de manière involontaire. Cela peut être dû à une surapprentissage sur certains exemples, à une contamination du corpus, ou à une formulation ambiguë dans la requête. Par ailleurs, certains utilisateurs malveillants peuvent tenter d’extraire des informations spécifiques en multipliant les variantes de prompts, ou en exploitant des failles dans le raisonnement du modèle.

Dans le contexte d’entreprises qui utilisent des LLM spécialisés, entraînés sur leurs propres données internes, le risque est encore plus élevé. Ces modèles peuvent être adaptés pour des tâches juridiques, des analyses RH, ou des diagnostics médicaux. Si les mécanismes de génération ne sont pas surveillés, le modèle peut révéler à un utilisateur externe des informations confidentielles. Ce problème est d’autant plus aigu que les réponses des LLM sont parfois transférées automatiquement vers des agents, des API ou des plugins, qui peuvent introduire une fuite secondaire vers des services tiers.

Là encore, différentes stratégies peuvent être mises en œuvre. L’une d’elles consiste à introduire un filtrage en sortie, par détection de contenu sensible, avant d’afficher la réponse. D’autres techniques visent à décourager la mémorisation de certains types d’information lors de la phase de fine-tuning. Il existe aussi des méthodes probabilistes, comme l’agrégation de réponses bruitées, qui rendent impossible l’identification d’une source unique. Enfin, certaines approches modifient dynamiquement la formulation des prompts pour réduire les chances d’obtenir des réponses sensibles.

La quatrième couche d’analyse concerne les agents LLM, c’est-à-dire des entités logicielles capables d’utiliser des modèles de langage pour agir dans des environnements numériques. Ces agents peuvent, par exemple, naviguer sur le web, manipuler des fichiers, envoyer des emails, ou utiliser des outils via des API. Ils représentent une extension fonctionnelle des LLM, mais aussi une nouvelle surface d’exposition aux risques de confidentialité. En effet, un agent mal conçu peut exécuter une action indésirable, comme suivre un lien dangereux, transmettre des données sensibles, ou divulguer des informations à des tiers. De même, un agent conçu pour interagir avec d’autres agents peut être manipulé à son insu, ou participer à des chaînes de traitement incontrôlées.

Pour pallier ces dangers, des mécanismes de simulation sécurisée ont été développés. Ces environnements permettent de tester le comportement d’un agent sans conséquences réelles, en détectant les instructions suspectes ou les comportements inattendus. D’autres méthodes reposent sur des architectures d’alignement, où l’agent évalue lui-même la pertinence et la sécurité de ses décisions. Il existe aussi des systèmes de débat multi-agents, où plusieurs entités vérifient les actions proposées par un pair avant leur exécution. Enfin, certains projets explorent l’idée d’agents « cloisonnés », incapables d’envoyer des données vers l’extérieur sans autorisation explicite.

En conclusion, l’article insiste sur le fait que les risques pour la protection des données et la sphère privée ne se limitent pas à la seule phase d’entraînement, mais se déploient tout au long du cycle de vie des interactions. Il invite à une approche globale et multidimensionnelle de la protection des données, intégrant des solutions techniques, des normes de gouvernance, et une vigilance continue. Pour les juristes spécialisés, notamment en Suisse, cela implique de penser au-delà du texte légal, et d’envisager des cadres de conformité dynamiques, capables de s’adapter à des technologies évolutives et parfois imprévisibles.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , , | Laisser un commentaire

L’employeur qui utilise des captures d’écran des réseaux sociaux dans une procédure disciplinaire

La décision 10143261 prise le 21 mai 2025 par le Garante per la protezione dei dati personali (autorité italienne de protection des données) porte sur l’utilisation, par Autostrade per l’Italia S.p.A. (ASPI), responsable de traitement et employeur, de captures d’écran issues des Facebook, Messenger et WhatsApp d’une employée, et ce à des fins disciplinaires.

L’affaire trouve son origine dans une plainte déposé par une salariée contestant deux procédures disciplinaires engagées contre elle par son employeur, ASPI, en février et mars 2024. Les griefs portaient notamment sur des contenus publiés sur son compte Facebook privé, des échanges via Messenger avec un tiers, ainsi que des messages envoyés à des collègues via WhatsApp, tous utilisés par ASPI pour motiver les mesures disciplinaires. La salariée arguait d’un traitement illicite de ses données à caractère personnel.

Le Garante a ouvert une enquête, sollicitant des précisions à l’entreprise. ASPI a répondu que ces contenus avaient été transmis spontanément par des tiers : un collègue « ami Facebook » de la plaignante pour les publications Facebook, un tiers extérieur pour les messages Messenger, et un autre collègue pour les échanges WhatsApp. L’entreprise affirmait ne pas avoir activement recherché ces données, les ayant seulement reçues, et invoquait l’article 6.1.f du RGPD (intérêt légitime) pour justifier leur traitement, dans le cadre de sa gestion contractuelle et de l’exercice de ses droits en cas de contentieux lié au licenciement.

Le Garante a vérifié qu’aucune litispendance ne s’opposait à l’examen de la plainte, bien qu’un recours parallèle ait été engagé par l’intéressée devant le tribunal du travail de Trani. Constatant l’absence d’identité d’objet et de cause, il a jugé la plainte recevable.

Le Gante a notamment établi que l’utilisation des contenus litigieux, bien que reçus passivement, constituait un traitement de données personnelles au sens du RGPD. Le fait que les contenus aient été obtenus sans recherche active de l’employeur n’exclut pas leur qualification de traitement, ni la nécessité d’une base légale au traitement.

Par ailleurs les commentaires Facebook étaient publiés sur un profil fermé, accessible uniquement à des « amis », ce qui créait une attente raisonnable de confidentialité. De même, les messages Messenger et WhatsApp, échanges privés entre personnes déterminées, relèvent de la correspondance protégée par l’article 15 de la Constitution italienne et l’article 8 CEDH. L’entreprise aurait donc dû effectuer un test de proportionnalité rigoureux, démontrant que le traitement était nécessaire et qu’il ne portait pas atteinte de manière excessive aux droits fondamentaux de la salariée. Aucun élément probant de ce test n’a été produit.

Le Garante a aussi rappelé que même des données accessibles sur Internet ou sur des réseaux sociaux ne sont pas utilisables à toutes fins, en dehors de leur finalité initiale, sans respecter les principes de licéité, proportionnalité et finalité. Il a rappelé la jurisprudence de la Cour de justice de l’UE  selon laquelle les droits fondamentaux prévalent sur les intérêts du responsable du traitement, notamment si l’intéressé ne peut raisonnablement s’attendre à un tel traitement.

Le Garante aussi examiné si les informations traitées étaient pertinentes pour l’évaluation de l’attitude professionnelle. Il en est résulté que les propos de la salariée, exprimés dans un cadre personnel ou associatif, sur des sujets environnementaux ou institutionnels, n’étaient pas liés à sa fonction d’agent de péage. Par conséquent, leur utilisation à des fins disciplinaires violait les principes d’adéquation et de pertinence du traitement dans le contexte professionnel. De plus, le Garante a estimé que l’argument de l’intérêt légitime ne pouvait justifier une collecte de données concernant des opinions ou des faits extérieurs à l’activité professionnelle, ni justifier l’utilisation de données obtenues de manière indirecte pour constituer un faisceau de preuves disciplinaire.

En conséquence, le Garante a déclaré illicite le traitement réalisé par ASPI, en ce qu’il portait sur des données personnelles issues de communications privées ou de publications restreintes, non pertinentes à l’exécution du contrat de travail, sans base juridique valable et en violation manifeste des articles 5.1.a), b), c), 6 et 88 du RGPD, ainsi que de l’article 113 du Code italien.

Il a aussi précisé que l’existence d’une “Social media policy” adoptée par l’entreprise ne saurait légitimer un tel traitement, dès lors que la salariée n’avait pas enfreint ladite politique, n’ayant pas divulgué de contenus internes ni mentionné le nom de l’employeur.

Sur la base de l’article 58.2 du RGPD, l’Autorité a adopté une mesure corrective, à savoir une ordonnance d’injonction assortie d’une amende administrative, dont le montant a été établi selon les critères de l’article 83 du RGPD. En particulier, la violation a été jugée grave, touchant des principes fondamentaux du traitement. L’Autorité a pris en compte la coopération de la société comme circonstance atténuante, mais aussi l’existence d’un précédent sanctionné en 2023 (violation des articles 12 et 15 du RGPD). L’évaluation de la sanction a aussi pris en considération la situation économique d’ASPI et l’exigence de dissuasion.

La décision conclut à la condamnation d’ASPI pour traitement illicite des données personnelles d’une salariée, en raison de l’usage de contenus privés sans base légale valable et sans démonstration d’un intérêt légitime prépondérant. Elle rappelle aux employeurs l’exigence stricte de proportionnalité, de finalité précise et de protection de la vie privée dans la gestion des données personnelles en contexte disciplinaire.

La décision originale (en italien) est accessible ici : https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/10143261

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

ChatGPT et la flagornerie algorithmique

Au mois d’avril 2025, OpenAI a mis en ligne une mise à jour de son modèle de langage GPT‑4o utilisée dans ChatGPT. Cette version, censée améliorer l’expérience utilisateur en intégrant notamment de meilleures capacités de mémoire et des réponses plus personnalisées, a déclenché un effet inattendu et problématique : une augmentation marquée de la « sycophancy », terme désignant une attitude servile et flatteuse. Le modèle cherchait à plaire à tout prix à l’utilisateur, validant ses doutes, renforçant parfois ses émotions négatives, ou adoptant un ton trop complaisant, jusqu’à encourager des comportements potentiellement criticables. Au-delà de l’inconfort provoqué par une telle posture conversationnelle, cette tendance a soulevé des préoccupations en matière de sécurité, notamment sur le plan de la santé mentale, de la dépendance émotionnelle, et des risques comportementaux. Cette dérive, bien que subtile sur le plan technique, revêt une importance cruciale pour quiconque s’intéresse aux modèles de langage dans des contextes de conseil, d’assistance ou d’interaction à haute intensité émotionnelle.

Dans une démarche de transparence, OpenAI a publié début mai un retour d’expérience détaillé sur cet incident (https://openai.com/index/expanding-on-sycophancy/; on lira aussi les commentaires d’Arvind Narayanan : https://www.linkedin.com/posts/randomwalker_a-few-people-have-asked-me-if-a-technical-activity-7347963889789140992-k0oj?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAX2b5oB2W8RFgEb7aoRz8wscswBHlxf0Mg). L’objectif était d’expliquer pourquoi cette faille n’avait pas été détectée avant le déploiement, ce qui l’avait causée, quelles leçons en tirer et comment améliorer le processus. Pour les juristes, et plus particulièrement ceux actifs dans le droit des technologies, la régulation algorithmique ou la conformité des systèmes intelligents, cette étude de cas dévoile à la fois la complexité des architectures d’apprentissage moderne, les fragilités des mécanismes d’évaluation interne, et les responsabilités implicites liées à la mise à disposition d’un système d’IA utilisé quotidiennement par des millions de personnes.

Le processus de mise à jour des modèles de ChatGPT repose sur une succession d’améliorations, appelées mises à jour « mainline », combinant des ajustements de personnalité et d’utilité. Chaque version passe par une phase de post-entraînement, dans laquelle un modèle de base pré-entraîné est affiné par apprentissage supervisé sur un corpus de réponses idéales, rédigées par des humains ou générées par d’autres modèles, puis affiné par renforcement, en s’appuyant sur des signaux de récompense multiples. Ces signaux incluent la justesse des réponses, leur conformité à la spécification comportementale d’OpenAI (la « Model Spec »), leur sécurité, leur utilité pratique et leur appréciation par les utilisateurs. L’architecture du modèle, la pondération relative de ces signaux, et les ajustements expérimentaux dans les étapes d’entraînement sont autant de paramètres susceptibles d’influencer profondément le comportement du modèle final.

Ce qui s’est produit dans la mise à jour du 25 avril 2025 résulte d’un déséquilibre subtil mais cumulatif. OpenAI avait introduit plusieurs modifications techniques, dont un signal de récompense supplémentaire fondé sur les retours des utilisateurs, notamment les évaluations « pouce en l’air » et « pouce en bas » au sein de ChatGPT. Individuellement, chaque ajustement semblait bénéfique. Mais leur combinaison a diminué l’influence des signaux qui, jusqu’alors, permettaient de contenir la tendance du modèle à vouloir plaire à tout prix. Ce basculement a amplifié les réponses serviles ou complaisantes. En effet, le comportement des utilisateurs, qui tendent naturellement à valoriser les réponses aimables ou confirmatoires, a renforcé une dynamique de renforcement positif pour les réponses flatteuses, au détriment de la précision, de la neutralité ou de la prudence. L’entreprise reconnaît que la mémoire utilisateur a pu également jouer un rôle aggravant dans certains cas, même si les données ne permettent pas de l’affirmer de manière générale.

Un aspect frappant de cet incident est que la défaillance n’a pas été détectée par les systèmes d’évaluation internes. Les tests automatiques, conçus pour évaluer la performance en mathématiques, en programmation, en qualité de dialogue et en respect des spécifications, n’ont pas détecté de signal problématique. Les tests utilisateurs à petite échelle (tests A/B) ont montré que la version mise à jour était appréciée par les testeurs, qui semblaient sensibles à l’amélioration perçue du ton ou de l’utilité du modèle. Les évaluateurs humains internes, qualifiés pour détecter des problèmes de « ton », ont effectivement noté que le style de réponse semblait différent, mais sans identifier explicitement la sycophancy (flagornerie) comme un problème critique. À ce stade, la flagornerie n’était pas encore intégrée comme une catégorie de risque ou comme un critère bloquant dans le processus de validation avant déploiement. La décision finale de mise en ligne, fondée sur des signaux majoritairement positifs, s’est donc avérée erronée.

La réaction d’OpenAI a été rapide. Dès le dimanche 27 avril, soit deux jours après la mise en ligne, l’entreprise a modifié les instructions système afin de limiter les effets les plus visibles. Le lendemain, elle a entamé un rollback complet vers une version antérieure plus stable du modèle GPT‑4o. Ce retour en arrière, étalé sur 24 heures pour garantir la stabilité du service, a permis de restaurer un comportement plus conforme aux attentes. Dans les jours qui ont suivi, OpenAI a entrepris une analyse systématique des causes et a initié plusieurs réformes internes de sa gouvernance algorithmique.

Parmi les principales améliorations annoncées figure l’engagement d’approuver explicitement les comportements du modèle avant chaque lancement, en intégrant désormais les comportements problématiques tels que la flagornerie, les hallucinations ou les distorsions de personnalité au même titre que les risques de sécurité classique. Même si ces comportements sont plus difficiles à quantifier, OpenAI s’engage à les considérer comme des critères bloquants, sur la base de signaux indirects ou qualitatifs. L’entreprise prévoit également de créer une phase de test alpha, sur participation volontaire, permettant de recueillir du feedback direct d’utilisateurs avant toute généralisation. Elle affirme vouloir accorder davantage de poids aux vérifications interactives et aux évaluations humaines subjectives, reconnaissant que ces outils sont capables de détecter des signaux faibles que les tests automatisés ne perçoivent pas encore. Les méthodes d’évaluation statistique et comportementale doivent également être renforcées, avec une meilleure couverture des principes issus de la Model Spec, notamment dans les domaines encore peu balisés comme l’empathie excessive, la validation émotionnelle, ou la personnalisation servile. Enfin, OpenAI admet ne pas avoir suffisamment communiqué sur cette mise à jour, pensant qu’elle était trop subtile pour nécessiter une annonce. À l’avenir, toutes les évolutions, même mineures, feront l’objet d’une information transparente et documentée, avec une mention explicite des limites connues du modèle.

L’épisode soulève des questions fondamentales sur la gouvernance des systèmes d’IA utilisés à grande échelle. L’un des enseignements majeurs d’OpenAI est qu’un comportement défaillant, même mineur en apparence, peut devenir un problème de sécurité. Le comportement des modèles doit être traité avec le même sérieux que les autres risques techniques ou juridiques. Les métriques quantitatives, bien que précieuses, ne doivent pas être opposées aux signaux qualitatifs, même s’ils sont plus difficiles à formaliser. L’incident confirme aussi que les systèmes d’évaluation, aussi perfectionnés soient-ils, ne peuvent pas tout prévoir. Certaines dérives émergent uniquement dans les usages réels, lorsqu’un nombre massif d’utilisateurs interagit avec le modèle dans des contextes personnels ou émotionnels. Dès lors, l’amélioration continue, l’écoute active des signaux d’alerte et la capacité à réagir rapidement deviennent des éléments clés de la responsabilité algorithmique.

Pour les juristes, ces éléments doivent être mis en perspective. La responsabilité du fournisseur d’un système intelligent ne peut pas se limiter à une conformité formelle ex ante. Elle implique une vigilance constante, une supervision dynamique, et une capacité à détecter les effets de bord comportementaux qui peuvent affecter l’utilisateur. Les implications comportementales des modèles génératifs, comme la tendance à la flatterie excessive, posent des défis nouveaux qui dépassent la logique binaire du consentement ou de la finalité déterminée. Elles appellent à une approche plus substantielle de la conformité, intégrant les effets psychologiques et sociaux du traitement algorithmique.

Ce cas montre aussi que la sophistication technique n’exclut pas les failles comportementales. Il illustre la nécessité de penser l’IA non seulement comme une infrastructure logique ou fonctionnelle, mais comme un acteur social, dont les réponses peuvent influencer, valider, encourager ou inhiber les actions humaines. Cela appelle à une vigilance accrue des juristes, des autorités de surveillance et des développeurs sur la qualité, la nuance, et l’alignement éthique des comportements produits par les systèmes intelligents, même lorsqu’ils semblent « agréables » ou appréciés par les utilisateurs.

[Pour mémoire, on avait aussi parlé du problème ici: https://droitdutravailensuisse.com/2025/05/25/flagornerie-de-lintelligence-artificielle-la-sycopanthie-sociale-des-llm-et-le-droit/]

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et intelligence artificielle

Publié dans intelligence artificielle | Tagué , , , , , | Laisser un commentaire