Le remboursement de frais de formation payés par l’employeur

Un employé de B SA, engagé en 2015, avait déjà bénéficié de plusieurs formations financées par l’employeur. En 2021, il sollicite la prise en charge d’un Master, en précisant qu’il comprendrait un éventuel refus. L’employeur accepte et paie la formation. L’employé achève celle-ci en juin 2023 puis démissionne avec effet fin juin. L’employeur retient alors CHF 6’210.- sur son dernier salaire, invoquant une clause prévoyant le remboursement des frais de formation en cas de départ dans l’année suivant la fin des examens. L’employé saisit la justice pour exiger la restitution du montant, mais est débouté en première instance puis en appel.

Le litige porte sur la question de savoir si l’employeur peut demander à l’employé le remboursement d’une formation financée par l’entreprise lorsque celui-ci démissionne peu après son achèvement. Selon l’art. 327a CO, l’employeur rembourse les frais nécessaires à l’exécution du travail. En revanche, lorsque la formation procure surtout un avantage personnel durable à l’employé et ne découle ni d’une obligation légale ni d’une exigence directe du poste, son financement peut être soumis à des conditions. Dans ce cas, l’employeur et l’employé peuvent convenir d’une clause prévoyant le remboursement des frais si le travailleur quitte l’entreprise dans un certain délai après la formation. Une telle clause est valable si elle est convenue avant le début de la formation, si les conditions (durée d’engagement, montant à rembourser, dégressivité éventuelle) sont suffisamment claires et si elle ne restreint pas exagérément la liberté de résiliation de l’employé.

En l’espèce, les juges retiennent que la formation suivie n’était pas nécessaire à l’exécution du travail mais procurait un avantage personnel notable à l’employé. Ils constatent ensuite que deux documents internes, acceptés par l’employé au début de sa relation de travail, prévoyaient explicitement la prise en charge des formations professionnelles ainsi que l’obligation de les rembourser intégralement si l’employé quittait l’entreprise dans l’année suivant la fin de la formation. La clause s’étendait à toute formation financée par l’employeur. Le fait que l’accord de prise en charge du Master n’ait pas rappelé expressément la condition de remboursement n’y change rien, car la clause était déjà applicable et connue. L’argument selon lequel certains employés avaient été dispensés du remboursement ne suffit pas à démontrer une renonciation générale de l’employeur à cette clause, ces cas relevant soit d’un délai déjà dépassé, soit d’une décision exceptionnelle pour raisons particulières.

Les juges considèrent donc qu’il existait une volonté commune des parties selon laquelle la prise en charge de la formation impliquait le remboursement en cas de départ dans l’année suivant l’obtention du diplôme. À défaut, l’interprétation objective confirme qu’un employé raisonnable, au vu des documents remis et de la pratique en vigueur, devait comprendre que l’employeur n’entendait financer de telles formations qu’en échange d’un engagement de durée minimale. La retenue opérée sur le dernier salaire était dès lors licite. Le recours est rejeté.

(Arrêt de la Chambre des prud’hommes de la Cour de justice du canton de Genève ACJC/1517/2025 du 27.10.2025)

Me Philippe Ehrenström, avocat, LLM

Publié dans Fin des rapports de travail, Frais professionnels, Responsabilité du travailleur | Tagué , , , , , | Laisser un commentaire

Discrimination algorithmique et utilisation de l’IA dans les services publics

L’article Ivana Bartoletti, Fair AI: Utopia, aspiration or deception? The human cost of automated efficiency (in : Algorithmic Rule : AI and the Future of Democracy in Sweden and Beyond, Simon Vinge/Maja Fjoestad (édit.), novembre 2025, p. 99-106 ; https://feps-europe.eu/wp-content/uploads/2025/09/Algorithmic-rule.pdf)) analyse les enjeux liés à l’utilisation de l’intelligence artificielle dans les services publics, en soulignant à la fois les promesses d’efficacité et les risques d’injustice qu’elle comporte.

L’IA peut optimiser des processus administratifs, améliorer l’accès aux prestations et permettre une allocation plus ciblée de ressources limitées. Ces perspectives sont particulièrement attrayantes dans les secteurs où les coûts augmentent et où les administrations cherchent à faire plus avec moins.

Toutefois, l’auteur rappelle que toute technologie est façonnée par la société qui la produit et risque, en l’absence de cadre adéquat, de reproduire voire d’amplifier les inégalités existantes. Les systèmes d’IA s’appuient inévitablement sur des données historiques, qui reflètent des structures sociales, économiques et culturelles marquées par des biais. Ainsi, les promesses d’objectivité et de neutralité peuvent masquer des effets discriminatoires concrets.

Le texte souligne que cet enjeu est particulièrement sensible dans les services publics, où les décisions touchent des personnes souvent vulnérables, telles que des bénéficiaires de l’aide sociale, des demandeurs d’emploi ou des usagers dépendant de services essentiels. Lorsque les systèmes algorithmiques se trompent ou reproduisent des biais, les conséquences peuvent être lourdes : exclusion d’aides, refus d’accès à des droits, surveillance accrue ou marginalisation. De plus, les personnes concernées disposent rarement de moyens de contester ou même de comprendre la logique des décisions automatisées, ce qui crée un déséquilibre supplémentaire entre l’administration et les administrés. L’article montre que l’opacité de nombreux systèmes d’IA fragilise la confiance dans les institutions publiques en donnant l’impression que des décisions importantes sont prises par des mécanismes inaccessibles et inquestionnables.

L’auteur met en évidence que le problème de biais ne provient pas seulement des données. Il peut apparaître à chaque étape : conception du modèle, choix des variables, interprétation des résultats, conditions d’utilisation. Il ne suffit donc pas de « nettoyer » les jeux de données. Une vision globale est nécessaire, impliquant des obligations de transparence, d’audit, de contrôle démocratique et de recours individuel. Plusieurs études mentionnées montrent que les biais discriminatoires produits par des algorithmes suscitent souvent moins de contestation que les biais humains équivalents. Cette tolérance accrue résulte du prestige attaché à la technique, perçue à tort comme objective ou neutre.

Deux cas européens illustrent ces dérives. À Hambourg, des systèmes biométriques utilisés dans des procédures administratives se sont avérés moins fiables pour les personnes à la peau foncée, entraînant des difficultés d’accès aux services. En Autriche, un algorithme de profilage des demandeurs d’emploi, censé améliorer l’efficacité des politiques d’insertion, a au contraire reproduit des inégalités structurelles, notamment en défavorisant les femmes et les personnes âgées. Ces cas montrent que, sans garanties solides, l’IA peut renforcer les discriminations au lieu de les corriger.

L’article discute ensuite la question de savoir si les biais algorithmiques peuvent réellement être éliminés. Il met en avant la difficulté de définir la notion même de « fairness » : plusieurs approches mathématiques existent, mais elles sont souvent incompatibles entre elles.

L’exemple d’Amsterdam est particulièrement instructif. La ville avait entrepris un projet ambitieux, Smart Check, visant à analyser les demandes d’aide sociale en intégrant des principes de transparence et de justice. Malgré des efforts importants, le système n’a pas atteint son objectif de fiabilité et de neutralité et a finalement été abandonné. Cette expérience montre que, même lorsque l’intention est d’agir de manière responsable et que les concepteurs sont conscients des enjeux éthiques, les conditions ne sont pas toujours réunies pour garantir l’absence de discrimination. Le constat est que l’IA, en s’appuyant sur des données inscrites dans des contextes sociaux, tend à reproduire des rapports de pouvoir et des inégalités historiques.

L’auteur souligne que la réponse à ces défis ne peut être seulement technique. La lutte contre la discrimination algorithmique suppose des choix politiques, des mécanismes institutionnels de contrôle et une capacité réelle pour les individus de contester les décisions automatisées. Des cadres juridiques existent déjà, notamment en matière de protection des données, de non-discrimination et de droits fondamentaux. L’IA ne s’exerce pas dans un vide normatif. Toutefois, l’ampleur et l’opacité des systèmes algorithmiques requièrent des instruments supplémentaires, en particulier en matière d’audit, de transparence et de gouvernance.

Dans ce contexte, le rôle du droit européen est central. Le texte se réfère notamment à l’AI Act de l’Union européenne, qui établit une classification des systèmes d’IA selon le niveau de risque et impose des exigences plus fortes pour ceux utilisés dans des domaines sensibles, dont les services publics. Mais l’article insiste sur le fait que ce règlement n’est qu’un cadre d’entrée sur le marché et ne se substitue pas aux législations existantes en matière d’égalité et de droits fondamentaux. Il invite à ne pas surestimer l’AI Act, tout en affirmant qu’il constitue une étape importante dans la mise en place d’une gouvernance démocratique de l’IA.

L’auteur conclut que l’enjeu principal ne consiste pas à empêcher l’utilisation de l’IA dans les services publics, mais à garantir que son introduction s’accompagne de conditions strictes de transparence, d’explicabilité, de contrôle humain et de responsabilité. L’IA peut soutenir des objectifs d’équité si elle est intégrée dans un projet politique orienté vers la réduction des inégalités. Elle ne peut produire d’elle-même la justice qu’elle prétend incarner.

Les administrations, les législateurs et les acteurs publics doivent donc investir dans des capacités d’évaluation, de supervision et de partage de connaissances. La coopération entre autorités, chercheurs et société civile apparaît comme une condition indispensable à une utilisation de l’IA compatible avec la démocratie et l’État de droit.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans discrimination, Droit administratif général, Fonction publique, intelligence artificielle | Tagué , , , | Laisser un commentaire

L’IA comme agent procédural dans un procès modélisé

L’article de Sanket Badhe, LegalSim : Multi-Agent Simulation of Legal Systems for Dis covering Procedural Exploits (arXiv :2510.03405vl [cs.MA], 3 octobre 2025 ; https://arxiv.org/abs/2510.03405v1) présente LegalSim, un environnement de simulation destiné à étudier comment des systèmes d’IA, placés dans une procédure judiciaire adversariale, peuvent apprendre à exploiter les règles procédurales elles-mêmes.

L’objectif n’est pas la prédiction de décisions judiciaires ou l’assistance à la rédaction, mais l’observation de stratégies procédurales que des agents autonomes peuvent développer lorsqu’ils interagissent directement avec les mécanismes du procès. L’auteur part de l’idée que le droit procédural, très codifié, offre de nombreuses possibilités de séquençage stratégique : demandes de découvertes successives, motions multiples, pressions de calendrier, tentatives de faire monter les coûts pour inciter à une transaction. Ce sont des pratiques que les avocats connaissent, mais que des systèmes d’IA pourraient pousser plus loin, plus vite et à grande échelle.

LegalSim repose sur une modélisation simplifiée du procès civil.

Deux agents, demandeur et défendeur, évoluent dans un environnement où leurs actions sont soumises à des règles sous forme de fichiers JSON, c’est-à-dire un système de « règles comme du code ». L’environnement prend en compte des états tels que le budget de chaque partie, la charge procédurale accumulée, les risques de sanction, et les tendances d’un juge probabiliste (par exemple, plus ou moins sévère dans les sanctions) qui tranche certaines demandes. Les actions disponibles sont limitées mais représentatives des étapes principales d’un litige (requêtes en production de documents, motions diverses, offres de transaction, etc.). Le système inclut également la possibilité de « portes » procédurales, c’est-à-dire des conditions qui empêchent temporairement certains actes, comme le sursis automatique en cas de faillite.

L’enjeu n’est pas de déterminer « qui gagne l’affaire », mais d’évaluer des stratégies d’exploitation procédurale. Les agents reçoivent donc des récompenses selon plusieurs critères combinés : coût imposé à l’adversaire, pression liée au calendrier, pression transactionnelle même en cas de faibles chances au fond, et respect minimal des règles pour éviter les sanctions. Autrement dit, l’environnement encourage certains comportements connus des praticiens : faire durer, épuiser, pousser à régler plutôt qu’à juger. Il devient alors possible d’observer si des agents d’IA apprennent d’eux-mêmes des chaînes de manœuvres qui restent techniquement licites mais créent des déséquilibres importants.

L’étude compare quatre types de politiques de décision. La première est une stratégie heuristique élémentaire, construite manuellement comme point de référence. La seconde demande à un modèle de langage de proposer directement l’action suivante, sans apprentissage complexe. La troisième combine un système de sélection de tactiques générales (un « bandit contextuel ») avec un modèle de langage qui traduit ensuite la tactique en action spécifique. La dernière est un agent entraîné par renforcement (PPO), qui apprend par auto-jeu à maximiser son score. Les expériences sont répétées avec différents profils de juge et dans plusieurs régimes procéduraux.

Les résultats montrent une hiérarchie stable. L’agent entraîné par renforcement obtient en général les meilleurs résultats en termes de « victoire » procédurale globale. Le système hybride tactique + modèle de langage est le plus constant face à divers adversaires. Le modèle de langage utilisé seul est moins performant, et l’heuristique est la plus faible.

Cependant, ce qui importe surtout est l’émergence de « chaînes d’exploitation » procédurale. Le système révèle en effet, sans les programmer explicitement, des séquences réalistes : multiplication de requêtes de découverte pour augmenter les coûts adverses tout en restant dans les limites acceptables, exploitation maîtrisée du calendrier et des délais, utilisation de menaces de motions en sanctions comme levier, etc. Ce phénomène n’est pas entièrement surprenant, mais son aspect autonome et systématique montre comment des agents optimisateurs pourraient amplifier des pratiques déjà existantes.

L’auteur souligne que la question ici n’est pas seulement la précision ou l’équité des modèles, mais la possibilité que des agents efficaces mais non alignés exploitent les failles structurelles de la procédure elle-même. Ils recommandent donc de ne pas se limiter à tester les modèles, mais de « red-teamer » les règles de procédure, c’est-à-dire identifier et renforcer les zones susceptibles d’abus. Ils suggèrent par exemple l’introduction de mécanismes procéduraux attenuants, une modulation des sanctions selon l’intensité cumulative des actes, ou l’ajout de petites doses d’aléa pour empêcher la construction de chaînes d’exploitation trop prévisibles. Ils insistent aussi sur la nécessité de cadres de gouvernance procédurale qui anticipent l’usage d’agents autonomes, plutôt que de réagir une fois les abus observés dans la pratique.

Enfin, l’article reconnaît les limites de l’approche. La modélisation reste simplifiée, la réduction de la procédure à des actions tokenisées ne capture pas la complexité des faits et du raisonnement juridique, et les résultats ne peuvent être directement transposés à des juridictions réelles.

L’intérêt se situe dans la mise en évidence d’un risque structurel : si l’on confie à des IA des capacités procédurales autonomes, même en respectant formellement les règles, elles peuvent rapidement apprendre à en exploiter les interstices.

Pour un lecteur suisse, l’enjeu réside moins dans le droit américain en particulier que dans la question transversale : dans tout système procédural codifié, l’apprentissage automatique peut transformer des marges déjà connues en stratégies répétitives et industrialisées. L’étude invite donc les juristes à considérer non seulement l’IA comme aide à la décision, mais aussi comme acteur capable de modifier les équilibres procéduraux si son autonomie est mal encadrée.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Avocats (règles professionnelles), intelligence artificielle, Procédure, Techno-labrador | Tagué , , , | Laisser un commentaire

Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg

L’article de Charlotta Kronblad, « Algorithmic Injustice – Gothenburg miscoded school placement algorithm » (in : Algorithmic Rule : AI and the Future of Democracy in Sweden and Beyond, Simon Vinge/Maja Fjoestad (édit.), novembre 2025, p. 21-34 ; https://feps-europe.eu/wp-content/uploads/2025/09/Algorithmic-rule.pdf) présente et analyse un cas survenu à Göteborg en 2020, lorsque la ville a introduit pour la première fois un système algorithmique pour attribuer les places dans les écoles publiques. L’objectif initial était conforme à une tendance générale dans les administrations publiques : utiliser des outils numériques pour gérer plus efficacement les ressources, prendre des décisions plus cohérentes et optimiser l’allocation de services sociaux, ici les places scolaires. En Suède, la numérisation de la décision publique est considérée comme nécessaire pour faire face à des contraintes budgétaires, au manque de personnel et à la complexité croissante des tâches administratives.

À cette époque, l’usage d’algorithmes pour les décisions automatisées était autorisé dans les agences nationales, mais pas encore dans les municipalités, où les algorithmes ne devaient servir qu’à assister la décision humaine. Ce point juridique jouera un rôle central dans l’affaire.

Le système implanté à Göteborg associait les préférences déclarées par les parents, l’adresse des élèves, la capacité des écoles et les règles juridiques fixées par le droit de l’éducation. Ce dernier prévoit que les enfants doivent en principe accéder à l’école choisie par leurs parents, sauf si cela empêcherait un autre enfant d’accéder à une école proche de son domicile. Lorsque les places sont limitées, la pratique juridique impose d’évaluer la distance à l’école en se fondant sur la distance réelle à pied, et non sur une simple distance à vol d’oiseau, afin de refléter la réalité des déplacements quotidiens.

Or l’algorithme utilisé en 2020 avait été configuré pour calculer les distances en ligne droite, ignorant les contraintes géographiques de la ville, notamment la présence d’un grand fleuve qui divise Göteborg. L’erreur n’était pas spectaculaire techniquement. Ce n’était pas un système d’intelligence artificielle complexe ni auto-apprenant, mais un code déterministe utilisant de mauvais paramètres de distance. Cependant, les conséquences ont été massives. Des centaines d’enfants ont été affectés dans des établissements situés parfois à plus de dix kilomètres de chez eux, souvent de l’autre côté du fleuve, avec des trajets nécessitant plusieurs correspondances en tram, bus et ferry. De nombreux parents découvrirent ces affectations de manière soudaine, sans explication préalable, lors de la publication des décisions. Les familles ont constaté que des enfants habitant dans la même rue, voire dans le même immeuble, étaient envoyés dans des écoles différentes. Les regroupements de classes et de quartiers, qui avaient jusque-là assuré une continuité sociale, se trouvèrent brutalement dispersés.

Face au mécontentement croissant, la municipalité a reconnu que certaines décisions dépassaient la limite interne fixée de huit kilomètres et proposa de réexaminer les cas les plus extrêmes. Cependant, la majorité des affectations problématiques furent maintenues. L’audit municipal publié en 2021 confirma plusieurs erreurs : utilisation de distances à vol d’oiseau, prises en compte insuffisantes des préférences parentales, erreurs dans les adresses de certaines écoles, communication lacunaire entre l’administration scolaire et les responsables politiques. L’audit révéla également que l’autorité scolaire n’avait effectué que des contrôles ponctuels, par crainte que des révisions manuelles introduisent des biais humains, ce qui revient à avoir accordé une confiance excessive à un système qu’elle ne maîtrisait pourtant pas pleinement.

L’auteure de l’article, également mère d’un enfant concerné, a choisi de ne pas faire appel de la décision individuelle d’affectation, mais d’introduire un recours visant la légalité du processus dans son ensemble. L’objectif était de faire reconnaître que les décisions avaient été automatisées en violation du droit applicable aux municipalités, et de demander qu’en conséquence l’ensemble des affectations soit réexaminé. Pour ce faire, il aurait été nécessaire que le tribunal examine le code et son mode de fonctionnement. Or l’administration ne l’a jamais communiqué, malgré les demandes.

Devant le tribunal administratif, la ville a soutenu que les fonctionnaires avaient pris les décisions finales et que l’algorithme n’était qu’un outil d’aide. Le tribunal a estimé que la charge de la preuve reposait sur la requérante, laquelle devait démontrer le caractère automatisé de la décision. Ne pouvant accéder au code, cette preuve était matériellement impossible à fournir. Le tribunal n’a pas exercé son pouvoir d’investigation pour requérir le système auprès de la ville. L’appel et la demande à la Cour administrative suprême ont été refusés, sans que le fond ne soit examiné.

Selon l’auteure, cette affaire illustre ce qu’elle nomme une « injustice algorithmique », composée de deux dimensions. D’abord, une injustice sociale : des décisions erronées ont été prises, affectant concrètement la vie d’enfants et de familles, sans possibilité de réparation. Ensuite, une injustice juridique : le système juridique lui-même s’est révélé incapable de corriger ou même d’examiner l’erreur, faute de mécanismes adaptés pour appréhender des décisions fondées sur des systèmes numériques opaques.

Le texte souligne que le problème ne tient pas uniquement à la complexité technologique, mais aussi aux comportements institutionnels. Il met en évidence des processus d’ignorance active ou involontaire : l’administration n’a pas vérifié les résultats avant publication ; elle a minimisé les alertes des développeurs ; elle a restreint l’accès à l’information ; elle a présenté le système comme un simple outil de soutien ; et les juridictions ont appliqué des règles procédurales conçues pour un monde où les décisions administratives sont traçables et compréhensibles par des humains. Ce cumul de comportements crée une sorte de « boîte noire institutionnelle » qui n’est pas seulement technique, mais également sociale et juridique.

Pour éviter que cette situation ne se reproduise, l’auteure propose plusieurs évolutions. Les systèmes décisionnels publics doivent être accompagnés d’une obligation de transparence accessible, non seulement technique mais procédurale. Les règles de preuve et de contrôle juridictionnel doivent être adaptées, notamment en renversant la charge de la preuve lorsque l’information pertinente est entre les mains de l’administration. Il faudrait permettre aux tribunaux d’examiner directement la légalité des algorithmes et des paramètres utilisés, et non se limiter à des contestations individuelles décision par décision. Enfin, l’accès effectif aux droits ne doit pas dépendre des compétences techniques ou des ressources individuelles des familles.

En somme, ce cas montre qu’une numérisation de la décision publique peut renforcer l’efficacité, mais peut également produire des dommages structurels si elle n’est pas accompagnée de garanties réelles de transparence, de contrôle et de responsabilité. La technologie n’est pas ici le principal danger ; le risque provient de l’incapacité du système administratif et judiciaire à reconnaître et corriger ses effets lorsqu’ils deviennent injustes.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Droit administratif général, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , | Laisser un commentaire

Une personnalité juridique pour l’IA ?

Quelques réflexions tirées de UK Law Commission, AI and the Law : A Discussion Paper, juillet 2025, pp. 21-23 (https://lawcom.gov.uk/news/artificial-intelligence-and-the-law-a-discussion-paper/):

La question de savoir si les systèmes d’intelligence artificielle devraient se voir reconnaître une personnalité juridique distincte est aujourd’hui au cœur des réflexions sur la responsabilité en matière d’IA. L’idée peut paraître radicale, voire futuriste, mais elle est déjà débattue dans les milieux académiques et institutionnels. Elle répond à une difficulté bien réelle : l’absence, dans certains cas, de personne physique ou morale clairement responsable des actes ou omissions d’un système autonome. Tant que l’IA n’a pas sa propre personnalité juridique, toute faute ou tout dommage doit être rattaché à un humain ou à une entité existante ; or, plus les systèmes gagnent en autonomie et en capacité d’adaptation, plus cette attribution devient incertaine.

Le droit positif rappelle que la personnalité juridique est une construction de l’ordre juridique : elle n’existe que parce que le système juridique la confère. Les sociétés, associations, fondations ou encore certaines entités non humaines – comme des temples en Inde ou une rivière en Nouvelle-Zélande – en bénéficient. Rien n’interdit donc, en théorie, que cette qualité soit étendue à d’autres entités, pour autant qu’il existe une justification fonctionnelle. La personnalité juridique s’analyse comme un faisceau de droits et d’obligations : le pouvoir d’acquérir des biens, de contracter, de comparaître en justice ou d’être poursuivi. Ce faisceau varie selon les catégories : les sociétés, par exemple, n’ont pas les mêmes droits que les individus.

Certains précédents, certes symboliques, ont déjà testé cette idée. En 2017, l’Arabie saoudite a proclamé le robot « Sophia » citoyen, et la mairie de Shibuya à Tokyo a octroyé un statut de résident à un programme d’IA. Ces décisions relèvent sans doute davantage du marketing technologique que d’une réforme juridique sérieuse, mais elles montrent que la question n’est plus purement théorique. Le Parlement européen, en 2017 également, a évoqué la création d’une personnalité juridique propre aux robots les plus autonomes. L’initiative a suscité une vive réaction : des chercheurs et juristes ont dénoncé cette perspective comme éthiquement et juridiquement inappropriée, estimant qu’elle risquait de brouiller la frontière entre responsabilité humaine et autonomie logicielle.

Le rapport identifie ensuite trois séries de questions : pourquoi accorder ou refuser la personnalité juridique à l’IA ; à quels systèmes elle pourrait être reconnue ; et quelle forme précise elle devrait prendre.

Les arguments favorables reposent d’abord sur la gestion des « trous de responsabilité ». Si un système agit sans contrôle humain direct, il devient difficile de désigner un responsable. Lui reconnaître une personnalité propre permettrait de lui imputer directement certains actes et d’organiser un régime de réparation. Ce statut pourrait aussi encourager l’innovation : les concepteurs, sachant qu’une partie de la responsabilité est transférée à l’entité autonome, seraient plus enclins à expérimenter. Enfin, certains auteurs soutiennent qu’un système rendu juridiquement responsable serait incité à « se comporter » de manière prudente, s’il est programmé pour éviter la sanction ou la perte de ressources.

Les arguments contraires sont tout aussi importants. Accorder une personnalité à l’IA risquerait de servir de bouclier à ses créateurs : des entreprises pourraient l’utiliser pour se décharger indûment de leurs obligations. De plus, un système n’ayant ni volonté propre ni patrimoine n’est pas, en pratique, apte à répondre de ses dettes ; il faudrait donc imaginer des mécanismes artificiels de financement ou d’assurance pour que la responsabilité soit effective.

Admettons néanmoins qu’une telle réforme soit envisagée : à quelles IA l’appliquer ? Il paraît évident qu’un filtre antispam ou un algorithme d’aide à la décision ne justifie pas un statut juridique autonome. En revanche, certains « agents » dotés d’un haut degré d’autonomie, capables d’agir, d’apprendre et d’interagir avec d’autres agents, posent une question différente. La doctrine évoque plusieurs critères possibles : le degré d’autonomie, le niveau de conscience ou de compréhension du contexte, et l’intentionnalité, c’est-à-dire la capacité d’agir dans la poursuite d’un but propre. La difficulté serait de déterminer le seuil précis à partir duquel ces qualités justifieraient une reconnaissance légale.

Si un tel seuil était défini, il faudrait ensuite choisir quel type de personnalité juridique conférer. L’IA pourrait être assimilée à une société, avec des propriétaires, actionnaires ou administrateurs humains. Dans ce cas, devrait-on leur accorder une responsabilité limitée ? Le rapport rappelle que, dans le droit anglais, la limitation de responsabilité est un privilège strictement encadré : elle suppose une inscription officielle, la divulgation des personnes exerçant un contrôle significatif et la production de comptes annuels. Un régime analogue serait probablement nécessaire pour une IA-personne morale, ne serait-ce que pour identifier les individus responsables de sa supervision.

Une autre option serait d’en faire une entité véritablement indépendante, sans propriétaires humains, mais alors se poserait la question de son identification. Comme pour les individus, il faudrait prévoir des éléments d’état civil : nom, date de création, numéro d’enregistrement, voire un identifiant gouvernemental. Cette formalisation serait indispensable pour la distinguer des autres systèmes et pour la soumettre aux obligations légales.

Resterait à déterminer comment la sanctionner en cas de faute. Si une IA commet un délit, il faudrait concevoir un mécanisme d’application de la peine : confiscation d’actifs, suspension d’activité, effacement ou modification forcée du code, voire retrait de sa licence d’exploitation. La responsabilité pénale, dans un monde où l’intention et la conscience n’existent que de façon simulée, soulèverait des difficultés conceptuelles inédites.

Même si un tel cadre était mis en place, de nombreuses questions demeureraient. Quelle norme de comportement appliquer ? Si une IA est tenue à un devoir de diligence, doit-on la comparer au comportement d’un professionnel humain raisonnable ? Et si ses performances dépassent celles d’un humain dans certains domaines, mais leur sont inférieures dans d’autres, comment apprécier la faute ? Ces interrogations montrent que l’attribution de la personnalité juridique ne résout pas automatiquement les défis du droit de l’IA ; elle déplace simplement la frontière du problème.

En conclusion, le rapport reconnaît que la mise en œuvre d’une personnalité juridique pour les systèmes d’IA serait un chantier immense et incertain. À ce jour, aucune IA n’atteint un niveau d’autonomie justifiant objectivement un tel statut. Cependant, les progrès rapides de la technologie laissent entrevoir qu’un jour cette question pourrait devenir plus pressante. Certains y voient une solution pratique pour combler les lacunes immédiates en matière de responsabilité. D’autres rappellent que, sans une réflexion approfondie sur les implications éthiques, sociales et économiques, une telle réforme risquerait de créer plus de complexité qu’elle n’en résout.

Le texte se termine sur une note prudente : il ne s’agit pas d’un projet concret, mais d’une hypothèse de travail. Si la personnalité juridique de l’IA venait à être reconnue, elle devrait s’accompagner de garde-fous solides, de procédures d’enregistrement, de mécanismes de contrôle et de régimes de sanctions adaptés. En somme, le concept a le mérite d’ouvrir la discussion sur la responsabilité dans un monde où les agents autonomes sont appelés à jouer un rôle croissant, mais il ne fournit pas encore de réponse définitive à la question essentielle : qui doit répondre des actes de l’intelligence artificielle ?

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle | Tagué , , , | 3 commentaires

Les loups comme parties à une procédure de recours?

A.a. Par décision du 27 novembre 2023, l’Office fédéral de l’environnement (OFEV) a approuvé, sous certaines conditions, la régulation proactive de la meute de loups du Calfeisental (au moins 8 loups) demandée par le canton de Saint-Gall le 16 novembre 2023. Le même jour, l’OFEV a également ordonné la régulation proactive des meutes de loups dans les cantons des Grisons, du Valais, de Vaud et du Tessin (ci-après « décisions d’approbation »). Par des décisions complémentaires du 18 décembre 2023, l’OFEV a retiré l’effet suspensif à tous les recours éventuels contre les décisions d’approbation du 27 novembre 2023 qui n’avaient pas été contestées devant le Tribunal administratif fédéral à cette date. [Dans le sabir fédéral, la « régulation proactive » c’est l’autorisation de tirer…]

A.b. Le 22 décembre 2023, A.________ a demandé à l’OFEV l’accès à toutes les décisions d’approbation de l’OFEV rendues sur la base de la modification de l’ordonnance sur la chasse du 1er novembre 2023. Elle a également demandé à pouvoir s’exprimer dans le cadre d’une procédure de consultation en bonne et due forme sur la révision de l’ordonnance sur la chasse du 1er novembre 2023. Enfin, elle a demandé que les autorisations de tir déjà accordées pour la régulation proactive des loups, qui se fondent sur la révision de l’ordonnance sur la chasse du 1er novembre 2023, soient annulées.

A.c. Dans une lettre adressée à l’OFEV le 22 janvier 2024, A.________ a réitéré les demandes formulées le 22 décembre 2023 et a notamment demandé qu’il soit constaté que l’élimination de meutes de loups sans procédure de consultation régulière, sans examen de mesures moins contraignantes et sans évaluation des conséquences réglementaires, était disproportionnée et violait le droit fédéral et international. Elle a en outre demandé l’effet suspensif du « recours » ainsi que la clarification de la compétence de l’OFEV pour les « griefs pour violation du droit de consultation » et de sa légitimité à former recours à cet égard. Enfin, elle a demandé une décision susceptible de recours et l’examen de la représentation légale des loups dans la vallée de Calfeisen.

A.d. Le 23 janvier 2024, l’OFEV a transmis à A.________ toutes les décisions non contestées devant le Tribunal administratif fédéral concernant la régulation proactive des meutes de loups. Dans le même temps, il lui a refusé l’accès aux décisions contestées, notamment en indiquant que ces documents faisaient partie d’une procédure judiciaire.

A.e. Le 24 janvier 2024, A.________ s’est à nouveau adressée à l’OFEV et a réaffirmé l’urgence de sa demande. Le 25 janvier 2024, l’OFEV a informé A.________ par courrier électronique qu’il n’envisageait pas de modifier les réglementations actuellement en vigueur. Il n’y aurait pas non plus de changement concernant l’effet suspensif.

B.a. Par requête du 25 janvier 2024, A.________ a formé un recours auprès du Tribunal administratif fédéral en son nom propre, au nom des loups de la meute du Calfeisental et en tant que leur représentante. Elle demande principalement que les décisions de l’OFEV du 27 novembre 2023 et du 18 décembre 2023 relatives à la régulation proactive du loup dans le canton de Saint-Gall (demande n° 2) ainsi que dans les cantons des Grisons, Valais, Vaud et Tessin (demande n° 3) soient annulées, réexaminées ou abrogées et renvoyées à l’instance précédente. En outre, les « décisions de l’OFEV du 23 janvier 2024 et du 25 janvier 2024 » doivent être annulées et renvoyées à l’instance précédente conformément aux considérants (demande n° 4). Sur le plan procédural, elle a demandé à titre superprovisoire d’interdire la régulation de la meute de loups dans la vallée de Calfeisen (demande n° 6) et d’accorder l’effet suspensif au recours (demandes n° 5 et n° 7 [superprovisoire]). Elle a également demandé que la représentation légale de la meute de loups dans la vallée de Calfeisen soit examinée (demande n° 8). Enfin, elle a demandé qu’une mesure préventive soit ordonnée afin d’interdire l’élimination des loups abattus dans un centre de traitement des cadavres d’animaux ou à l’Institut pour la santé des poissons et des animaux sauvages de l’Université de Berne (demande n° 9). En ce qui concerne la répartition des frais, elle a demandé qu’aucun frais de procédure ne soit prélevé et, à titre subsidiaire, que l’octroi de l’assistance judiciaire gratuite soit examiné (demande n° 10).

(…)

B.e. Par arrêt du 5 août 2024, le Tribunal administratif fédéral a rejeté le recours dans la mesure où il était recevable. Le Tribunal administratif fédéral a nié la légitimation de A.________ en ce qui concerne les décisions d’approbation, car elle n’était pas particulièrement concernée et n’avait en outre pas d’intérêt actuel à agir. Dans cette mesure, il n’a pas donné suite au recours. Dans la mesure où le recours contestait le refus d’accès à des documents officiels, le Tribunal administratif fédéral est entré en matière sur le recours et l’a rejeté sur ce point.

Par recours en matière de droit public du 16 septembre 2024, A.________ (ci-après la recourante) saisit le Tribunal fédéral en son nom propre et au nom des loups de la meute du Calfeisental. Elle demande principalement l’annulation des décisions attaquées, à savoir l’arrêt du 5 août 2024 et les décisions incidentes du 29 janvier 2024 et du 18 mars 2024 du Tribunal administratif fédéral ainsi que les décisions de l’OFEV, et le renvoi de l’affaire à l’instance précédente. Elle demande en outre « l’accès aux documents officiels ». Sur le plan procédural, elle demande l’assistance d’un avocat gratuit avant de présenter sa réplique, ainsi que la renonciation aux frais de justice, ou à titre subsidiaire, l’examen de l’octroi de l’assistance judiciaire gratuite.  (…)

1.5. Conformément à l’art. 89, al. 1, LTF, est habilité à former un recours quiconque a pris part à la procédure devant l’instance précédente, est particulièrement touché par la décision attaquée et a un intérêt digne de protection à ce qu’elle soit modifiée ou annulée.

La recourante est la destinataire du jugement attaqué. Elle est donc habilitée à former recours, tant en ce qui concerne le rejet de la demande d’accès aux documents officiels qu’en ce qui concerne l’irrecevabilité du recours contre les décisions d’approbation (cf. ATF 145 II 168 consid. 2).

Les loups n’ont pas la capacité d’ester en justice, raison pour laquelle ils ne sont pas légitimés à recourir au sens de l’art. 89 LTF (cf. à ce sujet les considérants E. 4.3.1 ss ci-après). Ils ne doivent donc pas être mentionnés dans le dispositif de l’arrêt du Tribunal fédéral. (…)

3.

La présente procédure porte d’une part sur la question de savoir si la recourante et les loups de la meute du Calfeisental sont habilités à former recours contre les décisions d’approbation de l’OFEV (ci-après consid. 4). D’autre part, la question est de savoir si l’instance précédente a refusé à juste titre à la recourante l’accès à des documents officiels (ci-après E. 5).

4.

4.1. L’instance précédente n’a pas donné suite au recours contre les décisions d’approbation de l’OFEV du 27 novembre 2023 et du 18 décembre 2023, car la recourante ne remplissait pas les conditions d’un intérêt particulier au sens de l’art. 48, al. 1, let. b PA et d’un intérêt actuel à agir au sens de l’art. 48, al. 1, let. c PA, et que les loups n’avaient pas la capacité d’ester en justice (jugement attaqué E. 2. et E. 5).

La recourante estime en revanche qu’elle-même et les loups sont habilités à former recours. Elle invoque une application erronée de l’art. 48 PA et de l’art. 9 de la Convention sur l’accès à l’information, la participation du public au processus décisionnel et l’accès à la justice en matière d’environnement (Convention d’Aarhus ; RS 0.814.07). Il convient donc d’examiner en premier lieu si la recourante est habilitée à former recours (ci-après E. 4.2), puis si les loups sont légitimés à former recours ou si la recourante est habilitée à les représenter (ci-après E. 4.3).

(…)

4.2.3. Selon les constatations de l’instance précédente, qui sont contraignantes pour le Tribunal fédéral (art. 105, al. 1, LTF), la recourante est une personne privée qui n’a pas participé à la procédure devant l’OFEV et qui est donc considérée comme un tiers (arrêt attaqué, consid. 2.5). L’instance précédente a considéré que la recourante n’avait pas pu rendre vraisemblable qu’elle serait plus fortement touchée par les décisions d’approbation que le grand public. Elle a estimé qu’elle invoquait principalement dans son recours des intérêts publics généraux et qu’elle ne pouvait pas démontrer un préjudice concret la touchant directement, ses arguments ne dépassant pas le stade de simples suppositions (arrêt attaqué, consid. 2.6).

4.2.4. Les arguments avancés par la recourante ne conduisent pas à une autre appréciation. Le fait que le DETEC ne lui ait pas délivré de décision concernant la procédure de consultation relative à la révision partielle de l’ordonnance sur la chasse (cf. arrêt 2C_273/2024 du 18 juin 2025 E. 1.3.3) ne saurait justifier, dans le présent contexte, que la recourante soit personnellement concernée. Il en va de même du fait que la recourante souhaite, contrairement à d’autres personnes, participer à une telle consultation. Le fait que la recourante émette des réserves et des objections à l’égard de la révision partielle de l’ordonnance sur la chasse et, en particulier, de la possibilité d’abattre de manière proactive des loups, telle qu’approuvée par l’OFEV dans ses décisions d’autorisation, ne distingue pas la recourante d’autres tiers qui partagent son opinion. L’autorisation accordée par l’OFEV d’abattre un ou plusieurs loups d’une meute n’a pas d’incidence sur la sphère juridique de la recourante et ne la concerne pas plus que le grand public, de sorte que ses arguments équivalent à un recours populaire irrecevable.

4.2.5. Dans la mesure où la recourante fait également valoir qu’elle dispose d’une grande expérience dans le domaine de l’environnement, qu’elle est « gardienne de la nature » et qu’elle s’engage à titre privé et professionnel dans le domaine de la biodiversité, cela ne conduit pas non plus à une autre appréciation, à savoir que les décisions d’autorisation n’affectent pas la sphère juridique personnelle de la recourante. Aussi intéressée et engagée que soit la recourante dans la protection de l’environnement en général et des espèces animales protégées en particulier, cela ne justifie pas qu’elle soit personnellement concernée. La recourante fait ainsi valoir uniquement des intérêts publics, à savoir la protection de la nature et de l’environnement (cf. ATF 146 I 145 consid. 5.5 ; arrêt 1C_437/2007 du 3 mars 2009 consid. 2.6). Seules les organisations mentionnées à l’art. 12 de la loi fédérale sur la protection de la nature et du paysage (LPN ; RS 451) sont habilitées à former recours dans ces affaires ; la recourante, en tant que personne privée, ne fait pas partie de ces organisations, comme l’a constaté à juste titre l’instance précédente. En l’absence d’un intérêt particulier, la recourante n’est pas légitimée à former recours (art. 48, al. 1, let. b, PA ; art. 89, al. 1, let. b, LTF).

(…)

4.3. Il convient ensuite d’examiner si les loups ont qualité pour recourir ou si la recourante est habilitée à les représenter.

4.3.1. Conformément à l’art. 6 PA, sont considérées comme parties les personnes dont les droits ou les obligations sont affectés par la décision, ainsi que les autres personnes, organisations ou autorités qui disposent d’un recours contre la décision. Le droit de recours prévu à l’art. 48 PA et à l’art. 89 LTF présuppose donc que la personne qui forme le recours ait la capacité d’être partie (ATF 142 II 80 consid. 1.4.4 ; arrêt 2C_622/2013 du 11 avril 2014, consid. 2.2 avec référence ; DONZALLAZ, op. cit., n° 6 ad art. 89 LTF ; cf. arrêts 2C_23/2024 du 12 mars 2025, consid. 3.2.2.1 ; 2C_495/2023 du 22 février 2024 consid. 5.3). La capacité d’ester en justice est régie par le droit civil. Elle correspond à la capacité d’agir en son propre nom en tant que partie dans une procédure. Est capable d’ester en justice toute personne qui a la capacité juridique. La capacité d’ester en justice est une condition préalable à la capacité d’ester en justice, c’est-à-dire la capacité de mener soi-même un procès ou de désigner un représentant (arrêts 2C_636/2023 du 18 juillet 2024 E. 7.1 ; 2C_684/2015 du 24 février 2017 E. 1.2 ; 2C_736/2010 du 23 février 2012, consid. 1.2 ; 2C_859/2010 du 17 janvier 2012, consid. 1.3 ; 2C_303/2010 du 24 octobre 2011, consid. 2.3).

4.3.2. Conformément à l’art. 11 CC (RS 210), toute personne a la capacité juridique ; tout être humain a la capacité d’avoir des droits et des obligations. Selon l’art. 641a CC, les animaux ne sont pas des choses ; toutefois, en l’absence de réglementation particulière, les dispositions applicables aux choses s’appliquent à eux. Les animaux ne sont donc pas titulaires de droits subjectifs (ATF 147 I 183 E. 8.3 ; arrêt 2C_151/2025 du 18 juin 2025 E. 4.4 ; cf. toutefois une exigence correspondante dans la doctrine STUCKI SASKIA, Die « tierliche Person » als Tertium datur, dans : Ammann Christoph/Christensen Birgit/Engi Lorenz/Michel Margot (éd.), Würde der Kreatur, Zurich/Bâle/Genève 2015, p. 287 ss, p. 305 ss avec références).

4.3.3. Il n’existe aucune norme juridique accordant la capacité juridique aux loups (cf. à ce sujet ATF 147 I 183 E. 8.2). Le fait que les loups, en tant que partie intégrante de la nature et de l’environnement, soient protégés par l’ordre juridique (cf. art. 1 let. d LPN ; art. 2, let. b, en relation avec l’art. 7, al. 1, et l’art. 5 LChP [RS 922.0]), ne leur confère pas pour autant des droits et des obligations. En l’absence de lex specialis, la règle générale selon laquelle seule l’être humain a la capacité juridique s’applique. Les loups n’étant pas des êtres humains, ils n’ont pas la capacité juridique. Ils n’ont donc pas non plus la capacité d’ester en justice. Ils ne remplissent donc pas les conditions requises pour être admis à former un recours (cf. ci-dessus E. 4.3.1). L’instance précédente a donc pu nier la capacité d’ester en justice des loups (jugement attaqué E. 5) sans violer le droit fédéral.

4.3.4. Sans capacité d’ester en justice, il n’est pas possible de se faire représenter dans un procès (ci-dessus E. 4.3.1). Par conséquent, la recourante ne peut pas non plus mener le procès au nom des loups en tant que leur représentante. L’appréciation correspondante de l’instance précédente s’avère conforme au droit fédéral (jugement attaqué E. 5). Il en va de même pour la recourante en tant que représentante des intérêts des loups (jugement attaqué E. 2.6). Comme mentionné précédemment (ci-dessus E. 4.2.5), seules les organisations désignées par le Conseil fédéral conformément à l’art. 12 LPN peuvent prétendre à ce statut ; la recourante n’en fait pas partie.

4.4. Par souci d’exhaustivité, il convient en outre de noter que le fait que la recourante, en tant que personne privée, ne soit pas admise à former un recours au nom de l’intérêt général n’est pas contraire à la Convention d’Aarhus, comme l’a déjà relevé à juste titre l’instance précédente (jugement attaqué E. 2.6) . L’article 9 de la Convention d’Aarhus ne prévoit pas de recours populaire et n’impose pas non plus aux États membres l’obligation d’en instaurer un (ATF 146 I 145 E. 5.5 ; 141 II 233 consid. 4.3.3 ; arrêts 1C_555/2020 du 16 août 2021 consid. 5.3.2 ; 2C_206/2019 du 25 mars 2021 consid. 20.2). Le jugement contesté ne constitue pas une violation de la Convention d’Aarhus, pour autant qu’elle ait été invoquée de manière juridiquement valable (cf. consid. 2.1 ci-dessus).

Le refus d’admettre le recours de la recourante ne constitue pas non plus un déni de justice au sens de l’art. 29, al. 1, Cst. Il n’y aurait déni de justice que si l’autorité compétente refusait d’examiner et de traiter la demande dûment déposée, alors qu’elle serait tenue de se prononcer à son sujet. Une décision de non-entrée en matière rendue en violation des règles de procédure équivaut également à un déni de justice formel (ATF 149 II 209 consid. 4.2 ; 149 I 72 consid. 3.2.1 ; 144 II 184 consid. 3.1 ; arrêt 2C_80/2023 du 6 février 2024 consid. 6.1). L’instance précédente a traité le recours qui lui a été soumis et a confirmé à juste titre la décision de non-entrée en matière. Le fait que l’instance précédente soit parvenue à une conclusion avec laquelle la recourante n’est pas d’accord ne constitue pas un déni de justice.

Pour les mêmes raisons, il n’y a pas violation de la garantie de l’accès au juge au sens de l’art. 29a Cst. La garantie de l’accès au juge n’interdit pas de subordonner l’entrée en matière sur une demande, un recours ou une action aux conditions habituelles de jugement au fond, telles que la légitimation en l’espèce (arrêt 2C_23/2024 du 12 mars 2025, consid. 3.6 avec renvois). L’instance précédente ayant à juste titre nié la légitimation de la recourante et des loups, l’arrêt attaqué ne viole pas l’art. 29a Cst.

(TF 2C_458/2024 du 15.09.2025, traduction libre de l’Allemand ; voir aussi l’arrêt concernant les abeilles : https://droitdutravailensuisse.com/2025/05/12/les-abeilles-sont-elles-des-citoyennes-comme-les-autres/)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Animaux, Droit administratif général, Procédure | Tagué , , , | Laisser un commentaire

Droit du travail et intelligence artificielle

Parmi d’autres thèmes, nous traiterons de droit du travail et d’intelligence artificielle ce 13 novembre 2025 à Neuchâtel. J’y parlerai plus particulièrement de recrutement automatisé.

Programme complet (et autres thèmes traités) : https://infomaniak.events/fr-ch/conferences/droit-et-intelligence-artificielle-aspects-choisis/2880c49e-0276-41dc-9058-5c0c7299b26e/event/1521731

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , | Laisser un commentaire

Le droit au salaire en cas d’empêchement non fautif de travailler (alcoolisme)

2.3.1. Le droit au maintien du salaire selon l’art. 324a al. 1 CO présuppose que le travailleur soit empêché de travailler sans faute de sa part pour des raisons qui lui sont imputables, telles que maladie, accident, accomplissement d’obligations légales ou exercice d’une fonction publique. La liste des raisons n’est pas exhaustive. Un empêchement de travailler au sens de la disposition mentionnée peut également résulter de circonstances extérieures, par exemple un placement à des fins d’assistance (art. 426 CC) ou une détention préventive ordonnée, pour autant qu’aucune faute ne puisse être reprochée au travailleur (cf. FRANCESCO TREZZINI, Commentario pratico al contratto di lavoro, 2020, N. 10 ad art. 324a CO ; GUY LONGCHAMP, dans : Dunand/Mahon [éd.], Commentaire du contrat de travail, 2e éd. 2022, N. 17 ad art. 324a CO ; REHBINDER/STÖCKLI, dans : Commentaire bernois, 2010, N. 11 ad art. 324a CO ; STREIFF/VON KAENEL/ RUDOLPH, Contrat de travail, 3e éd. 2012, N. 19 ad art. 324a/b CO ; arrêt 4C.74/2000 du 16 août 2001, consid. 4b. Le contraire s’applique en règle générale en cas de condamnation : BGE 114 II 274 E. 5). Dans le cas présent, ce n’est pas l’atteinte à la santé résultant d’une maladie en soi qui constitue la condition préalable au droit au maintien du salaire, mais l’incapacité de travail qui en résulte ou le caractère déraisonnable de la poursuite du travail (PÄRLI/PETRIK, Travail, maladie, invalidité, 2e éd. 2024, ch. 154). Il est nécessaire qu’il existe un lien de causalité entre l’atteinte à la santé due à la maladie et l’incapacité de travail (PÄRLI/PETRIK, op. cit., ch. 154 ; REHBINDER/STÖCKLI, op. cit., n° 3 ad art. 324a CO ; THOMAS GEISER, Questions relatives à l’obligation de continuer à verser le salaire en cas de maladie, AJP 2003 p. 325 ; LONGCHAMP, op. cit., n° 9 ad art. 324a CO). 

Contrairement au droit des assurances sociales, le droit du travail privé ne se fonde pas, pour évaluer la capacité de travail, sur l’aptitude à accomplir un travail raisonnable dans la profession exercée jusqu’alors. Dans le champ d’application de l’art. 324a CO, c’est avant tout le contenu de l’accord contractuel entre l’employé et l’employeur qui est déterminant (PÄRLI/PETRIK, op. cit., n° 155).

La question de savoir si un empêchement de travailler dû à une dépendance à l’alcool ou à la drogue doit être considéré comme non fautif doit être évaluée en fonction des particularités de chaque cas (PORTMANN/RUDOLPH, dans : Basler Kommentar, 7e éd. 2020, n° 23 ad art. 324a CO ; JÜRG BRÜHWILER, Einzelarbeitsvertrag, 3e éd. 2014, n° 7d ad art. 324a CO). Si une personne glisse imperceptiblement, pendant une longue période, dans une dépendance de plus en plus profonde, il faut en principe partir du principe qu’il n’y a pas de faute (PORTMANN/RUDOLPH, op. cit., n° 23 ad art. 324a CO ; BRÜHWILER, op. cit., n° 7d ad art. 324a CO ; cf. également ADRIAN STAEHELIN, dans : Zürcher Kommentar, 4e éd. 2006, n° 25 ad art. 324a CO ; REHBINDER/STÖCKLI, op. cit., n° 16 ad art. 324a CO ; STREIFF/VON KAENEL/RUDOLPH, op. cit., n° 29 ad art. 324a/b CO ; GEISER, op. cit., p. 326 ; HANS-PETER EGLI, Lohnfortzahlung und Versicherungsschutz gemäss Art. 324a OR, AJP 2000 p. 1067, qui partent généralement du principe qu’il s’agit d’une maladie). L’alcoolisme et la toxicomanie sont aujourd’hui considérés comme des maladies, les addictions primaires, c’est-à-dire celles qui ne sont pas précédées d’une maladie psychique sous-jacente, n’étant plus considérées d’emblée comme fautives (cf. ATF 145 V 215 consid. 4 ss). Dans le cas concret, il est incontestable que l’alcoolisme du défendeur est une maladie.

2.3.2. L’obligation de prestation selon l’art. 324a CO présuppose dans tous les cas un lien de causalité naturel entre le motif d’empêchement non fautif et l’absence de prestation de travail (arrêt 4A_232/2019 du 18 novembre 2019 E. 3.2.2 ; REHBINDER/ STÖCKLI, dans : Commentaire bernois, 2010, n° 3 ad art. 324a CO ; TREZZINI, op. cit., n° 2 ad art. 324a CO ; PÄRLI/PETRIK, op. cit., n° 154 ; GEISER, op. cit., p. 325). Les causes au sens du lien de causalité naturel sont toutes les circonstances sans lesquelles le résultat survenu ne peut être considéré comme survenu ou comme survenu de la même manière ou au même moment (ATF 148 V 138 consid. 5.1.1, 356 consid. 3 ; 142 V 435 E. 1 ; 129 V 177 E. 3.1). Conformément à cette description, il n’est pas nécessaire, pour affirmer l’existence d’un lien de causalité naturel, que la maladie soit la cause unique ou directe de l’empêchement de travailler ; il suffit qu’elle ait, conjointement avec d’autres conditions, empêché le travailleur de fournir sa prestation, c’est-à-dire qu’elle ne puisse être dissociée de l’empêchement de travailler survenu (arrêt 4A_232/2019, op. cit., consid. 3.2.2 avec renvois ; cf. ATF 147 V 161 consid. 3.2 ; 143 III 242 consid. 3.7 ; 142 V 435 consid. 1 ; 139 V 176 consid. 8.4.1).

2.3.3. Si, dans un cas concret, plusieurs raisons empêchent l’exécution du travail, il convient d’évaluer, pour la période concernée, la raison pour laquelle le travailleur est empêché de travailler et si cette raison doit être considérée comme fautive ou non. Dans l’exemple mentionné dans le recours, où une personne ne peut se présenter au travail en raison de l’exécution d’une peine privative de liberté, elle n’a pas droit au maintien du salaire en vertu de l’art. 324a, al. 1, CO, car elle est responsable de son absence. Si le salarié tombe malade après le début de l’exécution de la peine, la maladie (non fautive) ne change rien au fait qu’il est empêché de travailler en raison de la privation de liberté (faute) et qu’il se trouve donc en situation de retard fautif. En conséquence, le droit au maintien du salaire prévu à l’art. 324a, al. 1, CO ne peut pas renaître pendant l’exécution de la peine pour cause de maladie. En revanche, un droit au maintien du salaire naîtrait a posteriori si la personne était libérée de prison alors que sa maladie persistait, car elle serait alors empêchée de travailler en raison de sa maladie.

2.3.4. Toutefois, de tels motifs superposés et indépendants les uns des autres empêchant l’exercice d’une activité professionnelle ne sont pas présents dans le cas présent. Sans l’alcoolisme avancé du défendeur, l’accident de la circulation du 26 septembre 2022, suivi du placement à des fins d’assistance et du traitement hospitalier du salarié, ne se serait pas produit. Le retrait du permis de conduire n’a rien changé à l’empêchement de travailler déjà existant en raison de la maladie et du traitement médical stationnaire. L’accident de la circulation subi, le placement à des fins d’assistance et le retrait du permis de conduire doivent tous être considérés comme différentes manifestations d’une seule et même cause, à savoir l’alcoolisme grave.

Contrairement à ce que semble supposer la recourante, le retrait du permis de conduire n’était pas en soi une raison indépendante de l’empêchement de travailler, mais simplement un maillon supplémentaire dans la chaîne causale. Le défendeur était empêché de travailler principalement en raison de sa maladie et de son hospitalisation pour traitement médical, et non pas seulement en raison du retrait de son permis de conduire. Cette situation est comparable à celle décrite dans l’ATF 133 III 185 E. 2, dans laquelle le Tribunal fédéral a estimé qu’une employée souffrant de troubles psychiques, incarcérée à la suite d’incendies criminels, avait droit à des indemnités journalières. Le Tribunal fédéral a estimé que l’incapacité de travail n’était pas due au séjour en établissement pénitentiaire, mais à la maladie psychique antérieure, qui était à l’origine des incendies criminels. Il a donc considéré que l’incapacité de travail était due à la maladie et que le séjour en établissement pénitentiaire avait la fonction d’un séjour en clinique (ATF 133 III 185 consid. 2.2.2) . Dans le cas présent, l’état de santé du salarié était également la cause initiale et principale de son incapacité de travail, et non le retrait du permis de conduire nécessaire à l’exercice de son activité (cf. arrêt 4A_232/2019, op. cit., consid. 3.2.2). Il n’est donc pas nécessaire d’examiner de manière approfondie si le retrait du permis de conduire doit être considéré en soi comme un empêchement de travailler au sens de l’art. 324a, al. 1, CO.

2.3.5. On ne peut donc reprocher à l’instance précédente d’avoir violé l’art. 324a, al. 1, CO en partant du principe que le défendeur était empêché de travailler pour cause de maladie et en confirmant, sur cette base, l’obligation de la recourante de continuer à lui verser son salaire.

(TF 4A_221/2025 du 11 septembre 2025, consid. 2.3 ; traduction libre)

Me  Philippe Ehrenström, avocat, LLM

Publié dans Incapacité de travail | Tagué , , , | Laisser un commentaire

Retour sur l’opposition au congé abusif (art. 336b CO)

Le commentaire de Werner Gloor (Opposition au congé : l’interprétation subjective portée au pinacle ; commentaire de l’arrêt du Tribunal fédéral 4A_618/2024, Newsletter DroitDuTravail.ch octobre 2025 – https://droitne.ch/files/analyses/droitdutravail/1a-25-oct-analyse-gloor-4a-618-2024.pdf) revient sur l’arrêt du Tribunal fédéral du 7 juillet 2025 (4A_618/2024), qu’il situe dans la continuité d’arrêts de 2014 et 2023 relatifs à l’opposition au congé abusif selon l’art. 336b CO. (Présentation de cet arrêt sur ce site : https://droitdutravailensuisse.com/2025/09/11/le-labyrinthe-de-lopposition-au-conge/)

Gloor rappelle d’abord le cadre. L’art. 336b CO n’exige qu’une opposition écrite au congé avant la fin du délai de résiliation, afin d’ouvrir la voie à une indemnité en cas de licenciement abusif. Le texte de la loi et les travaux préparatoires montrent que cette formalité vise uniquement à informer l’employeur du désaccord et à permettre, en théorie, des pourparlers pour maintenir l’emploi. La doctrine est unanime : il ne faut pas poser des exigences élevées à la forme ou au contenu de cette opposition. L’opposition n’a pas pour but de prouver une intention subjective, mais de préserver le droit à agir en justice.

Pourtant, depuis 2014, le Tribunal fédéral a infléchi sa jurisprudence. Dans l’arrêt 4A_320/2014, il a exigé que le salarié manifeste clairement sa volonté de poursuivre la relation de travail. Puis, dans l’arrêt 4A_59/2023, il a semblé ajouter trois conditions : l’opposition devait contester la fin des rapports, qualifier le congé d’abusif et évoquer la prétention à indemnité. L’arrêt commenté de 2025 n’en retient qu’une — la volonté de maintenir le rapport de travail — mais y ajoute un contrôle judiciaire de la réalité et du sérieux de cette volonté, fondé sur une interprétation subjective selon l’art. 18 CO.

Selon Gloor, cette orientation est problématique. D’abord parce que l’obligation de manifester la volonté de poursuivre l’emploi n’a aucun ancrage textuel : ni la loi, ni les travaux parlementaires, ni la doctrine dominante ne la mentionnent. Historiquement, l’opposition devait être une formalité simple, indépendante de la perspective de réintégration. La doctrine et la pratique cantonale avaient d’ailleurs refusé de suivre le Tribunal fédéral sur ce terrain, considérant qu’une telle exigence méconnaît la réalité du travail : dans la plupart des cas, le lien de confiance entre les parties est rompu, et il serait artificiel d’attendre du salarié qu’il exprime un souhait de collaboration avec un employeur qui vient de le congédier.

Ensuite, Gloor critique la nouvelle insistance sur « l’examen du réel et sérieux de l’opposition ». Le Tribunal fédéral invite désormais les juges cantonaux à rechercher la volonté véritable du travailleur (volonté subjective), en priorité sur l’interprétation objective fondée sur le principe de la confiance. Autrement dit, avant de se demander comment un employeur pouvait comprendre la déclaration du salarié, le juge doit sonder son intention intime. Ce renversement de méthode paraît inadapté à un acte unilatéral comme l’opposition au congé : il n’y a pas d’accord de volontés, et la déclaration ne nécessite aucun consentement réciproque. D’autres manifestations unilatérales de volonté (congé modification par exemple) n’entraînent d’ailleurs pas ce nouveau prima de l’interprétation subjective.

Dans la pratique, cette interprétation subjective conduit à des raisonnements fragiles : le juge infère la « véritable intention » du travailleur à partir d’indices. Ces déductions relèvent des faits que le Tribunal fédéral ne revoit qu’en cas d’arbitraire, ce qui fige des conclusions psychologiques discutables et retire au Tribunal la possibilité de corriger l’application du droit fédéral. Gloor s’interroge : était-ce la volonté du législateur de soustraire ainsi l’art. 336b CO à au contrôle du tribunal fédéral ?

L’auteur souligne aussi l’incohérence de ce contrôle de sincérité imposé au salarié. Le juge ne vérifie jamais la « réalité » d’un licenciement ou d’un congé-modification prononcé par l’employeur, alors même que ceux-ci peuvent relever de stratégies opportunistes. Exiger du travailleur qu’il prouve la pureté de son intention de rester en poste, tout en épargnant à l’employeur un examen similaire, introduit une asymétrie choquante.

Surtout, cette exigence entre en contradiction directe avec les obligations du droit de l’assurance-chômage : dès la notification du congé, le travailleur doit entreprendre sans délai des démarches pour retrouver un emploi, sous peine de sanction. Ainsi, celui qui suit la règle du droit public s’expose à se voir reprocher, par le droit privé, une absence de sincérité dans son opposition. Dans l’affaire commentée, le Tribunal fédéral a reproché au salarié d’avoir signé un nouveau contrat avant la fin du préavis, ce qui aurait démontré qu’il n’avait pas l’intention de poursuivre la relation avec son ancien employeur. Pour Gloor, cette conclusion est doublement absurde : d’une part, la signature d’un nouvel emploi ne change rien au caractère éventuellement abusif du congé ; d’autre part, elle sanctionne un comportement économiquement rationnel et légalement encouragé. Le travailleur est ainsi pris en étau : s’il cherche un emploi, il perd son droit à l’indemnité pour licenciement abusif ; s’il ne le cherche pas, il risque une suspension de ses prestations chômage.

L’auteur conclut sur une mise en garde. Le développement du droit par le juge ne doit pas se substituer à la loi. Le Tribunal fédéral ne peut, sous couvert d’interprétation, imposer des conditions étrangères au texte et à la volonté du législateur. Un arrêt de la plus haute juridiction doit rester compréhensible pour les praticiens et pour le justiciable ; or, la décision du 7 juillet 2025, en érigeant l’intention subjective du salarié en critère déterminant, brouille le message et compromet la sécurité du droit.

NB : la critique de Gloor doit être approuvée. Dans l’arrêt considéré, le critère de la volonté de continuer à travailler pour l’employeur et celui de la primauté de l’interprétation subjective menaient à considérer que le travailleur qui avait retrouvé du travail avant la fin du délai de congé devait être privé du droit d’invoquer le congé abusif, ce qui était absurde.

Me Philippe Ehrenström, avocat, LLM

Publié dans Licenciement abusif | Tagué , , , , , | Laisser un commentaire

La sûreté fournie par l’employé à l’employeur (art. 330 CO)

A teneur de l’art. 330 al. 1 CO, l’employeur doit tenir hors de son patrimoine la sûreté que le travailleur lui remet pour assurer l’exécution de ses obligations ; il lui fournit une garantie pour sa conservation.

L’employeur restitue la sûreté au plus tard à la fin du contrat à moins que la date de la restitution ne soit différée par un accord écrit (al. 2)

Si l’employeur fait valoir des prétentions contestées découlant du contrat de travail, il peut retenir la sûreté jusqu’à droit connu ; à la demande du travailleur, il doit consigner en justice le montant retenu (al. 3).

Dans la faillite de l’employeur, le travailleur peut réclamer la sûreté que l’employeur a tenue hors de son patrimoine, sous réserve des prétentions de celui-ci qui découlent du contrat de travail (al. 4)

La sûreté remise par le travailleur à l’employeur doit concerner une obligation découlant du contrat de travail, comme l’obligation de réparer le dommage (art. 321e CO) ou de restituer (art. 321b CO). Le dépôt d’une sûreté en mains de l’employeur peut être pertinente si, par exemple, l’employé reçoit une précieuse collection d’échantillons ou de modèles, bénéficie – comme voyageur de commerce – d’un pouvoir d’encaissement, gère de manière indépendante un stock de marchandise.

La sûreté peut prendre des formes diverses : cautionnement (art. 492 ss CO), garantie bancaire, dépôt d’une somme d’argent.

Le montant de la sûreté n’est pas limité, mais doit se trouver dans un rapport raisonnable avec l’importance des obligations en cause. Il ne devra pas constituer un engagement excessif (art. 27 CC).

L’employeur a alors l’obligation de conserver cette sûreté séparée de son propre patrimoine et de fournir au travailleur une garantie pour sa conservation. Ce peut être le cas, par exemple, si la sûreté est versée sur un compte séparé auprès d’une banque, celle-ci fournissant une garantie au travailleur. La simple inscription de la sûreté dans les comptes de l’employeur ne suffit donc pas. A noter : dans certains cantons, les modalités du dépôt et les délais peuvent être régis par le droit cantonal. (Canton de Genève : Loi du 22 mars 1930 protégeant les garanties fournies par les employés (LPGFE ; RS-GE J 1 20))

Le travailleur a le droit de récupérer la sûreté au plus tard à la fin du contrat de travail, mais les parties peuvent convenir par écrit de différer la date de la restitution, par exemple pour garantir l’exécution d’obligations postérieures à la fin des rapports de travail (clause d’interdiction de concurrence par exemple).  La durée du report devra être fixée en tenant compte de toutes les circonstances selon les règles de la bonne foi.

Si l’employeur a failli à son obligation de conserver séparément la sûreté fournie par le travailleur, celle-ci tombera dans la masse en faillite en cas de faillite de l’employeur.

Les al. 1, 3 et 4 sont relativement impératifs (art. 362 CO), l’al, 2 est dispositif.

Me Philippe Ehrenström, avocat, LLM

Publié dans Fin des rapports de travail, Litiges, contentieux | Tagué , , , , | Laisser un commentaire