Senior Manager Regime: qui est concerné?

À la suite de la faillite de la Credit Suisse et du scandale Archegos, la Suisse envisage sérieusement l’introduction d’un régime de responsabilité individuelle des dirigeants bancaires, inspiré du Senior Managers Regime (SMR) britannique. Ce régime vise à renforcer la gouvernance des établissements financiers en clarifiant les responsabilités individuelles des personnes occupant des fonctions critiques au sein des banques. L’article de Susan Emmenegger (Senior Managers Regime: Wer sind die Senior Manager?, à paraître dans «Sonderheft Bankenstabilität», SZW/RSDA, 2025) traite de la transposition possible d’un tel dispositif en Suisse, en comparant les modèles existants au Royaume-Uni, en Irlande et au sein de l’Union européenne, et en recommandant une approche propre au contexte juridique helvétique.

Le Senior Managers Regime repose sur l’idée que les défaillances bancaires proviennent souvent d’une dilution des responsabilités et d’un manque de traçabilité des décisions. Il vise à identifier, pour chaque domaine d’activité jugé risqué, une personne spécifiquement responsable, dont les compétences sont préalablement vérifiées et dont les devoirs sont formalisés dans un document de responsabilités individuel. Les institutions doivent également tenir une cartographie complète de leurs fonctions critiques, afin de permettre aux autorités de supervision de situer précisément qui est responsable de quoi.

Dans la pratique, les juridictions qui ont mis en œuvre un tel régime l’ont fait selon des logiques distinctes. Le Comité de Bâle, dont les standards influencent fortement le droit bancaire européen, adopte une conception traditionnelle de la hiérarchie bancaire en distinguant le conseil d’administration (Board of Directors) du management opérationnel. Le Senior Management désigne ici les personnes chargées de la gestion quotidienne de l’établissement, soit, dans la lecture suisse, la direction générale. Cette conception demeure toutefois ancrée dans une vision moniste de la gouvernance, typique des pays anglo-saxons.

L’Union européenne, à travers ses directives CRD IV et VI, a fait évoluer sa compréhension du Senior Management. Alors que la directive initiale pouvait prêter à confusion en plaçant le Senior Management tantôt sur le même plan que la direction exécutive, tantôt en dessous, la version révisée clarifie les rôles. Le Senior Management y est défini comme l’ensemble des personnes qui exercent des fonctions exécutives sous l’autorité du conseil de direction mais qui ne sont pas elles-mêmes membres de ce dernier. Dans le cadre dualiste suisse, cela correspondrait à une strate de cadres située sous la direction générale. Cette définition s’accompagne de la reconnaissance des « fonctions clés » – finances, risques, conformité et audit interne – qui, en raison de leur impact sur la conduite des affaires, doivent également faire l’objet d’un encadrement spécifique, même si leurs titulaires ne sont pas membres formels de l’organe de direction.

Le Royaume-Uni adopte une approche résolument fonctionnelle. Une fonction est qualifiée de Senior Management Function dès lors qu’elle implique une responsabilité décisionnelle susceptible d’avoir des conséquences graves pour l’établissement ou pour la stabilité du marché financier britannique. Le critère déterminant est donc le risque inhérent à la fonction, indépendamment de son positionnement hiérarchique. Une liste exhaustive de fonctions concernées est établie par les autorités de surveillance. Elle inclut tant des membres du conseil d’administration – notamment le président et les présidents des comités clés – que des dirigeants exécutifs et des responsables de fonctions de contrôle.

L’Irlande, quant à elle, a mis en place un régime analogue, le « Individual Accountability Framework », en utilisant une terminologie différente mais une logique semblable. Les fonctions critiques sont qualifiées de « Pre-Approval Controlled Functions », et leur désignation repose également sur une approche fonctionnelle. Les autorités irlandaises publient elles aussi une liste précisant quelles fonctions sont soumises à des obligations renforcées. La différence principale avec le modèle britannique réside dans le fait que l’Irlande inclut tous les membres du conseil d’administration dans ce périmètre, y compris les membres non exécutifs.

Partant de ces analyses comparatives, Emmenegger propose pour la Suisse une approche mixte, combinant des éléments institutionnels et fonctionnels. Le critère central pour définir les personnes concernées est celui de la « responsabilité en matière de risques ». Cela signifie qu’une personne doit être considérée comme Senior Manager si elle est en mesure d’influencer, de contrôler ou de diriger les risques de l’établissement. Cette capacité peut résulter soit d’une appartenance à un organe de direction – conseil d’administration ou direction générale –, soit de la titularité d’une fonction clé. Dans le contexte suisse, où les membres de la direction sont considérés comme des organes de l’entreprise au même titre que les administrateurs, il est proposé d’inclure systématiquement tous les membres de ces deux organes dans le périmètre du régime de responsabilité. Ce choix se justifie par leur rôle stratégique et leur statut actuel de garants de la conformité (Gewährsträger), soumis à une évaluation d’aptitude et d’honorabilité.

Parallèlement, certaines fonctions situées hors des organes de direction doivent être intégrées sur la base de leur impact concret sur la gestion des risques. C’est le cas des fonctions financières, du risque, de la conformité et de l’audit interne, mais également de nouvelles fonctions telles que la direction des systèmes d’information ou des opérations, dont l’importance a crû avec la transformation numérique du secteur bancaire. Le critère commun à toutes ces fonctions est l’influence significative qu’elles exercent sur l’organisation et la conduite des affaires de l’établissement.

Une question délicate concerne l’inclusion des membres non exécutifs du conseil d’administration. Le modèle britannique les exclut en général, à l’exception du président du conseil et des présidents des comités spécialisés. Ce choix repose sur la crainte que la responsabilité accrue ne conduise ces membres à interférer dans la gestion opérationnelle, au détriment de leur rôle de supervision critique. L’Irlande, en revanche, les inclut pleinement, estimant qu’ils exercent une fonction essentielle dans la surveillance de la direction. En Suisse, compte tenu du rôle collégial mais juridiquement engagé des administrateurs, ainsi que de leurs obligations de diligence et de loyauté, l’auteure estime légitime de les inclure tous dans le champ du régime. Ils sont déjà aujourd’hui responsables individuellement au sens du droit des sociétés, et leur engagement actif dans la supervision des risques justifie leur soumission à un dispositif de responsabilité renforcé.

Dans sa proposition finale, Emmenegger recommande d’élargir le régime actuel de contrôle de l’aptitude aux fonctions critiques (Fit and Proper) en y intégrant les principes du Senior Managers Regime, avec la tenue de documents de responsabilités et d’une cartographie des fonctions. Ce modèle, baptisé « GewährPlus », aurait pour effet de renforcer la traçabilité des décisions, d’éviter les zones grises de responsabilité et de promouvoir une culture de gouvernance fondée sur la clarté, la compétence et l’engagement personnel.

L’adoption d’un tel régime représenterait une évolution modérée mais structurante pour les grandes banques suisses. Elle ne bouleverserait pas les pratiques existantes mais les consoliderait dans un cadre légal cohérent et aligné avec les standards internationaux. Pour les établissements plus petits, l’effort de mise en conformité serait plus important, mais proportionné au regard des enjeux de stabilité financière et de confiance dans le système bancaire.

Ainsi, à travers une analyse comparative, l’article met en évidence la nécessité et la faisabilité d’un régime suisse de responsabilité individuelle des dirigeants, adapté au modèle dualiste helvétique, et combinant judicieusement les approches institutionnelles et fonctionnelles.

Me Philippe Ehrenström, avocat, LLM

Publié dans Devoir de fidélité et diligence, Divers, Procédure, Qualification du contrat, Responsabilité du travailleur | Tagué , , , , | Laisser un commentaire

Les effets de l’intelligence artificielle générative sur le marché de l’emploi

Jonathan S. Hartley, Filip Jolevski, Vitor Melo, and Brendan Moore (The Labor Market Effects of Generative Artificial Intelligence, décembre 2024) s’intéressent aux effets de lintelligence artificielle générative (IA générative) sur le marché de lemploi, en particulier ceux des grands modèles de langage (LLM), sur la productivité, les inégalités et la dynamique de l’emploi.

L’émergence de l’intelligence artificielle générative, symbolisée par des outils comme ChatGPT, marque une rupture technologique. Dans leur étude, Jonathan Hartley et ses coauteurs s’attachent à quantifier les usages réels de cette technologie sur le marché du travail américain, en analysant les données d’une enquête nationale inédite menée en décembre 2024. Cette approche empirique leur permet de dépasser les spéculations théoriques pour observer les comportements, les tendances d’adoption, ainsi que les effets concrets sur la productivité, les inégalités de revenus et la nature des emplois.

Le rapport commence par un rappel du contexte économique : depuis une décennie, les débats autour du ralentissement de la productivité alimentent des théories sur l’épuisement de l’innovation ou la stagnation séculaire. L’IA générative vient raviver l’espoir d’un nouveau cycle de croissance, à condition toutefois de savoir si elle agit comme un complément (augmentant les compétences des travailleurs) ou comme un substitut (rendant certains postes obsolètes). Cette distinction est essentielle : dans le premier cas, la technologie accroît les salaires et la valeur ajoutée des individus ; dans le second, elle les remplace à moindre coût.

Les auteurs rappellent que, malgré l’engouement médiatique et une hausse importante de l’investissement dans le secteur (notamment chez OpenAI, Google DeepMind, Anthropic), l’adoption réelle des LLM dans les entreprises reste encore limitée mais croissante. En février 2024, seulement 5,4 % des entreprises américaines déclaraient utiliser des outils d’IA, mais cette proportion augmente rapidement. À l’échelle individuelle, 30,1 % des travailleurs adultes avaient utilisé l’IA générative dans leur travail, dont un tiers l’utilise quotidiennement. Ces chiffres masquent des disparités marquées : l’utilisation est beaucoup plus répandue chez les jeunes actifs, les personnes diplômées de l’enseignement supérieur et les salariés aux revenus élevés. L’IA générative est également concentrée dans certains secteurs : informatique, marketing, services professionnels, mais aussi dans des fonctions transversales comme la rédaction, le service client ou la recherche d’informations.

Dans un second temps, l’étude fait un point sur les travaux existants concernant les effets microéconomiques de l’IA générative sur la productivité. Plusieurs expériences contrôlées révèlent une amélioration significative du rendement des employés utilisant l’IA, notamment dans des tâches de rédaction, de programmation, ou d’assistance administrative. Par exemple, les consultants du Boston Consulting Group utilisant GPT-4 ont accompli leurs tâches plus rapidement et avec une meilleure qualité que leurs collègues non équipés. Des études menées dans des marchés du travail numériques, comme Upwork, montrent des effets ambivalents : les gains sont importants dans les secteurs liés à l’informatique ou à la création graphique, mais les traducteurs, rédacteurs et commerciaux voient leurs revenus diminuer. Cela suggère que l’IA générative remplace certaines tâches cognitives routinières mais renforce les compétences dans les fonctions à forte valeur ajoutée.

Les auteurs étendent ensuite leur réflexion au plan macroéconomique. Bien que les premières estimations restent spéculatives, des travaux récents estiment que l’IA générative pourrait augmenter le PIB mondial de 7 % dans les dix prochaines années. Cela équivaudrait à plusieurs centaines de millions d’emplois potentiellement affectés, positivement ou négativement. L’impact dépendra de la vitesse d’adoption, de la capacité des systèmes éducatifs à adapter les compétences et des politiques publiques mises en œuvre pour accompagner les transitions.

Une des contributions originales de l’étude est l’analyse fine des résultats de leur propre enquête. Les données révèlent que l’utilisation de l’IA générative s’intensifie à mesure que le revenu augmente. En dessous de 50’000 USD annuels, seuls 20 % des individus l’utilisent au travail. Cette proportion grimpe à 50 % chez les salariés gagnant plus de 200’000 USD par an. De même, les titulaires de diplômes universitaires sont beaucoup plus susceptibles de recourir à ces outils que ceux sans diplôme. Sur le plan sectoriel, l’adoption varie fortement : les services informatiques, la gestion d’entreprise et l’éducation sont en tête, tandis que les secteurs primaires (agriculture, exploitation minière), ainsi que les fonctions publiques, montrent une faible adoption.

L’étude examine également l’usage « intensif » de l’IA : environ un tiers des utilisateurs déclarent s’en servir tous les jours ouvrables, mais en réalité, le temps hebdomadaire cumulé reste modeste, autour de 15 heures en moyenne. Cela suggère une utilisation ponctuelle, ciblée, souvent dans des moments précis du processus de travail. En revanche, l’impact sur la productivité est considérable. Les répondants estiment qu’une tâche nécessitant 90 minutes sans IA peut être réduite à 30 minutes avec l’aide d’un outil génératif, triplant ainsi l’efficacité. Toutefois, ces gains sont très dépendants de la nature des tâches. Seuls 16 % des utilisateurs déclarent que l’IA a réalisé la tâche à leur place ; dans la majorité des cas, elle est utilisée comme un outil d’assistance.

Le rapport s’attarde aussi sur un aspect souvent négligé : l’usage de l’IA par les demandeurs d’emploi. Plus de la moitié des chômeurs ayant utilisé l’IA déclarent s’en être servis pour rédiger des lettres de motivation, adapter leur CV, ou chercher des offres. Cette donnée met en lumière un usage stratégique de ces outils en dehors du cadre strictement professionnel, ce qui soulève des questions importantes pour les politiques actives du marché du travail.

Enfin, les auteurs s’interrogent sur l’effet différencié de l’IA selon les catégories de travailleurs. Ils émettent l’hypothèse suivante : les travailleurs peu qualifiés, facilement remplaçables, seraient les plus exposés aux pertes d’emploi ; les travailleurs très qualifiés bénéficieraient de gains de productivité importants ; les professions intermédiaires nécessitant une interaction physique (par exemple, dans les soins ou la logistique) seraient relativement protégées à court terme. Cette hypothèse est confortée par une relation en U entre les gains d’efficacité et le niveau de revenu : ce sont à la fois les plus pauvres et les plus riches qui bénéficient le plus des gains liés à l’IA.

L’étude conclut en formulant plusieurs pistes de réflexion pour le droit du travail et les politiques publiques. D’une part, il convient de soutenir la recherche ouverte en matière d’IA pour éviter une concentration excessive entre quelques grandes entreprises. D’autre part, les institutions devront réfléchir à l’encadrement juridique de l’usage de ces technologies, tant sur le plan des droits d’auteur (notamment pour les données utilisées à l’entraînement des modèles), que sur celui de la régulation des conditions de travail, de la protection contre le remplacement abusif ou de la formation continue.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle, Non classé | Tagué , , | Laisser un commentaire

L’implication humaine dans les systèmes de modération de contenus en ligne

Emmanuel Vargas Penagos analyse les obligations juridiques découlant du droit de l’Union européenne en matière d’implication humaine dans les systèmes de modération de contenus en ligne (Platforms on the hook? EU and human rights requirements for human involvement in content moderation, Cambridge Forum on AI: Law and Governance (2025), 1, e23, 1–27, doi:10.1017/cfl.2025.3). L’étude se focalise sur l’interaction entre la législation secondaire de l’UE, en particulier le Digital Services Act (DSA), et les garanties offertes par les droits humains, notamment la liberté d’expression. L’auteur adopte une approche structurée, en répondant à quatre questions successives : les raisons de l’implication humaine dans la modération, les différentes formes que peut prendre cette implication, les exigences concrètes du droit de l’UE, et enfin, l’interprétation de ces normes à la lumière des principes issus des droits fondamentaux.

Dans un premier temps, l’article revient sur les raisons qui justifient l’implication humaine dans la modération de contenu. L’automatisation s’est développée comme réponse au volume écrasant d’informations diffusées en ligne, les plateformes ne pouvant matériellement pas assurer une surveillance exclusivement humaine. Toutefois, cette automatisation soulève plusieurs problèmes. D’un point de vue technique, les outils algorithmiques peinent à saisir le contexte, les subtilités linguistiques et culturelles, et s’avèrent peu fiables en cas de décalage entre les données d’entraînement et les contenus réels. D’un point de vue humain, les modérateurs exposés à des contenus traumatisants subissent une charge psychologique importante. Mais au-delà de ces considérations pratiques, des motifs éthiques et juridiques justifient la présence humaine : la nécessité de corriger les biais des systèmes, d’intervenir en cas de dysfonctionnement, d’assurer la responsabilité et la transparence des décisions, de protéger la dignité des personnes, et de permettre une réponse contextuelle aux situations complexes. Ces justifications sont soutenues par plusieurs acteurs internationaux qui insistent sur la nécessité de prévoir des mécanismes de révision humaine des décisions automatisées pour garantir les droits fondamentaux.

La deuxième partie de l’article explore les formes que peut prendre l’implication humaine dans les systèmes de modération. L’auteur distingue trois grandes catégories : l’intervention humaine à chaque étape de la décision (human-in-the-loop), la supervision humaine avec faculté d’arrêt (human-on-the-loop), et enfin une gouvernance humaine globale sur l’ensemble du processus (human-in-command). Ces catégories s’inscrivent dans des structures de modération très variées selon les plateformes. Certaines combinent des outils de détection automatisée avec des modérateurs spécialisés et des voies de recours internes et externes. D’autres reposent davantage sur des modérateurs bénévoles assistés par des outils simples. L’article souligne également que l’implication humaine peut intervenir à différents stades du cycle de modération : au moment de la conception des outils (formation et ajustement des algorithmes), dans la détection initiale, dans la prise de décision, dans l’examen des recours, ou encore dans le retour d’expérience servant à améliorer les modèles. Cette diversité rend difficile toute tentative d’uniformisation, et appelle une approche différenciée selon le contexte.

La troisième partie de l’étude expose les exigences concrètes du droit européen, en particulier celles issues du RGPD, du DSA et de législations sectorielles. L’article 22 du RGPD interdit en principe les décisions fondées exclusivement sur un traitement automatisé produisant des effets juridiques ou significativement similaires, sauf en cas s’exceptions prévues par le règlement et si des garanties appropriées sont prévues. Cette disposition s’applique aux décisions de modération de contenu, dans la mesure où celles-ci affectent les droits contractuels des utilisateurs ou la visibilité de leurs publications. Le DSA ne proscrit pas l’usage d’outils automatisés mais impose une série d’obligations encadrant leur utilisation : obligation de transparence, de diligence, d’objectivité et de non-discrimination dans la prise de décision, ainsi que la mise en place d’un mécanisme de réclamation interne non entièrement automatisé. L’intervention humaine est explicitement requise dans ce mécanisme de recours, qui doit être supervisé par un personnel qualifié. En parallèle, des instruments spécifiques viennent compléter ce cadre général. La directive sur le droit d’auteur impose une revue humaine des décisions de retrait de contenu fondées sur les droits d’auteur. Le règlement TERREG, en matière de lutte contre le terrorisme, exige que tout recours à des outils automatisés soit assorti de garanties adéquates, notamment une supervision humaine. Quant au European Media Freedom Act, il impose des garanties renforcées pour les contenus issus de médias professionnels, en prévoyant un droit de réponse préalable et un traitement prioritaire des recours, ce qui suppose implicitement une implication humaine qualifiée.

Enfin, l’auteur propose une lecture de ces exigences à la lumière des droits fondamentaux, notamment de l’article 10 CEDH relatif à la liberté d’expression. Le DSA s’inscrit dans une volonté de créer un environnement numérique sûr, prévisible et respectueux des droits. L’implication humaine est ici conçue comme une garantie procédurale essentielle à cet objectif. Cette garantie ne saurait se limiter à une formalité ou à un contrôle symbolique : elle doit se traduire par une organisation concrète des ressources humaines, tant en termes de nombre que de compétence et d’autorité décisionnelle. Trois principes guident cette approche.

Le premier est celui de la diligence. La mise en œuvre des mécanismes de modération doit répondre à un standard de prudence et de professionnalisme adapté à la taille et aux capacités de la plateforme. Cela implique un investissement proportionné dans la formation des modérateurs et dans l’amélioration continue des outils automatisés. Le deuxième principe est celui d’objectivité et de non-discrimination. Les décisions doivent être fondées sur des critères clairs, cohérents et appliqués de manière équitable, sans reproduire ou accentuer les biais sociaux ou culturels. L’intervention humaine est ici essentielle pour contextualiser les cas limites et garantir un traitement équitable. Enfin, le principe de responsabilité suppose que les décisions puissent être justifiées, contestées et révisées par un personnel qualifié, en dehors des seules procédures algorithmiques. L’implication humaine devient ainsi un vecteur de transparence, de redevabilité et de correction des erreurs systémiques.

En conclusion, l’article met en évidence que le droit européen n’impose pas une présence humaine constante dans tous les actes de modération, mais requiert que celle-ci soit organisée de manière ciblée, cohérente et juridiquement encadrée. Cette implication humaine doit être conçue non comme un simple garde-fou symbolique, mais comme un pilier essentiel de la protection des droits fondamentaux dans l’environnement numérique. Elle appelle à une gouvernance renouvelée de la modération, combinant efficacité technologique et garanties procédurales substantielles.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Formation des employés à l’intelligence artificielle (IA): obligation, contenu, destinataires

L’art. 4 du « Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) prévoit que les « (…) fournisseurs et les déployeurs de systèmes d’IA prennent des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l’IA pour leur personnel et les autres personnes s’occupant du fonctionnement et de l’utilisation des systèmes d’IA pour leur compte, en prenant en considération leurs connaissances techniques, leur expérience, leur éducation et leur formation, ainsi que le contexte dans lequel les systèmes d’IA sont destinés à être utilisés, et en tenant compte des personnes ou des groupes de personnes à l’égard desquels les systèmes d’IA sont destinés à être utilisés. »

La Commission a publié un Q&A qui donne des précisions sur le cercle des personnes concernées, le contenu des formations, etc. :

Bien évidemment, la Suisse n’est pas soumise au Règlement sur l’intelligence artificielle, et n’entendra pas l’être à l’avenir, mais ce document donne des indices et des clés pour mettre en œuvre la formation des employés à l’IA, formation dont l’obligation découle déjà en droit suisse du droit de la protection des données et du pouvoir de direction de l’employeur.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , , , , , | Laisser un commentaire

Utilisation de l’intelligence artificielle par des avocats : informer les Confrères et le juge ?

Les cas d’hallucinations dans des écritures produites en justice sont légion aux Etats-Unis depuis Mata v. Avianca, Inc., No. 1:2022cv01461 – Document 54 (S.D.N.Y. 2023). Ce qui est intéressant dans Lacey v. State Farm (C.D. Cal., mai 2025) (Case No. 24-5205 FMO (MAAx)) (https://digitalcommons.law.scu.edu/cgi/viewcontent.cgi?article=3920&context=historical), c’est que le dossier implique deux Etudes, et que la décision traite plus particulièrement du devoir d’information quant à l’utilisation de l’IA envers les Confrères et le juge.

Dans une affaire civile opposant une ancienne magistrate californienne à sa compagnie d’assurance, un juge fédéral américain, désigné comme « Special Master », avait été chargé de superviser un différend relatif à la communication de documents confidentiels. À cette occasion, la demanderesse a déposé un mémoire destiné à convaincre le juge d’imposer la divulgation de certains échanges internes à l’assureur. Ce qui aurait pu être un épisode technique de procédure civile est devenu un cas d’école en matière d’usage de l’intelligence artificielle dans les pratiques judiciaires.

Très vite après réception du mémoire, le juge a constaté que plusieurs références à des arrêts judiciaires paraissaient douteuses, voire invérifiables. Il a entrepris de rechercher lui-même les décisions citées, sans succès. Alerté, il a demandé des explications aux avocats. Ceux-ci ont alors retiré certaines citations erronées et transmis une nouvelle version du mémoire, tout en restant silencieux sur la raison de ces erreurs.

Ce n’est que plus tard, dans le cadre d’une procédure formelle sur d’éventuelles sanctions, que la vérité a été établie : un avocat avait utilisé des outils d’intelligence artificielle pour produire un plan juridique initial, une sorte de « brouillon » de l’écriture. Ce plan contenait des résumés d’arrêts et des citations inventées ou inexactes, ce que l’avocat lui-même n’avait pas identifié comme tel. Il avait transmis ce plan tel quel à ses collègues d’un autre cabinet, sans leur préciser que l’origine des contenus était une IA. Ces derniers ont ensuite intégré des éléments du plan dans le mémoire final sans effectuer de vérifications.

Le juge a été clair : ce genre de pratique n’est pas acceptable. Selon lui, les outils d’IA actuels ne permettent pas de s’y fier aveuglément. Il n’est pas encore admissible de leur déléguer des tâches telles que la recherche ou la rédaction juridique sans validation humaine. Le problème n’était pas tant l’usage de l’IA en soi, que l’opacité entourant son emploi. Le juge a estimé que la combinaison de l’utilisation cachée d’un outil génératif, de l’absence de relecture rigoureuse et de la réponse trompeuse donnée lorsqu’il a relevé les erreurs, constituait un comportement assimilable à de la mauvaise foi.

Il a donc annulé purement et simplement le mémoire fautif. En conséquence, la demanderesse a perdu toute chance d’obtenir les documents qu’elle demandait. Pour renforcer l’effet dissuasif, le juge a ordonné aux deux cabinets d’avocats concernés de verser plus de trente mille dollars à la défense. Il a toutefois refusé de sanctionner individuellement les avocats, considérant que les fautes étaient collectives et qu’ils avaient fait preuve de remords sincères. La cliente, elle, n’a pas été rendue responsable.

Ce jugement a surtout mis en lumière une exigence croissante : la transparence dans l’usage de l’intelligence artificielle en contexte judiciaire. Le juge a rappelé qu’un avocat ne peut pas, même involontairement, tromper le tribunal en introduisant des éléments fictifs issus d’une IA sans le dire. Le devoir d’information ne concerne pas uniquement le juge. Il s’impose aussi entre avocats. Celui qui reçoit un document doit pouvoir savoir si l’analyse vient d’un juriste ou d’une machine. Le silence sur cette question expose non seulement à des sanctions disciplinaires, mais aussi à des conséquences concrètes pour le client.

Autrement dit, cette décision ne punit pas un avocat pour avoir utilisé une technologie, mais pour ne pas avoir dit qu’il l’avait fait, et pour avoir laissé d’autres en faire usage sans leur en donner les clés de lecture.

Me Philippe Ehrenström, avocat, LLM

Publié dans Avocats (règles professionnelles), intelligence artificielle | Tagué , , , | Laisser un commentaire

Les abeilles sont-elles des citoyennes comme les autres ?

Je vous avais déjà parlé ici de Nonhuman Rights Project Inc. v./ Cheyenne Mountain Zoological Society and Bob Chastain, Case no.24SA21, dans lequel de sympathiques éléphants plaidaient l’habeas corpus pour obtenir leur libération : https://droitdutravailensuisse.com/2025/01/23/lelephant-est-il-un-justiciable-comme-les-autres/.

Pure fantaisie anglo-saxonne ? Pas vraiment à en juger par le dossier des abeilles zurichoises :

Le 22 septembre 2024, la population suisse rejette à près de 63 % l’initiative populaire fédérale « Pour l’avenir de notre nature et de notre paysage » (dite « Initiative biodiversité »). À la suite de ce résultat, une citoyenne étrangère domiciliée à Zurich, B.A., et sa fille mineure A.A., déposent un recours auprès du Conseil d’État zurichois. Elles désignent également comme co-recourantes plusieurs espèces d’abeilles sauvages, appartenant à diverses familles (Seiden-, Sand-, Furchen-, Schmal-, Sägehorn-, Hosen-, Blattschneider-, Mörtel- et Echten Bienen), explicitement décrites comme « domiciliées en Suisse ». Le cœur de leur revendication repose sur la reconnaissance du droit de vote en matière environnementale pour les enfants et les abeilles, la nullité du scrutin du 22 septembre 2024 et l’organisation d’un nouveau vote intégrant ces nouveaux sujets de droit présumés.

Le Conseil d’État zurichois rejette la réclamation de la fille A.A. au motif de son absence de majorité et refuse d’entrer en matière sur la réclamation de la mère, faute de citoyenneté suisse. Il ne se prononce pas sur le fond des autres griefs, considérant notamment que la requête en lien avec les votations communales de Zurich ne relève pas de sa compétence.

Les recourantes saisissent alors le Tribunal fédéral en déposant un recours en matière de droit public, reprenant leurs demandes initiales, notamment l’octroi du droit de vote aux enfants et aux abeilles dans les questions environnementales. Le Tribunal fédéral commence par analyser la recevabilité du recours. Conformément à l’article 136 alinéa 1 de la Constitution fédérale (Cst.), les droits politiques au niveau fédéral sont réservés aux citoyens et citoyennes suisses âgés d’au moins 18 ans, non frappés d’incapacité. A.A., mineure au moment des faits, est donc en principe exclue du droit de vote. Toutefois, comme elle soutient qu’elle aurait dû pouvoir voter, le Tribunal fait preuve d’une certaine souplesse procédurale et entre à titre exceptionnel en matière. Il rejette néanmoins son recours au fond : la condition d’âge est une règle claire du droit positif, et l’aptitude au discernement, même revendiquée dans le domaine environnemental, ne saurait s’y substituer. Aucune disposition du droit fédéral ou international invoqué ne permet d’en déduire une dérogation.

S’agissant de la mère, le Tribunal constate qu’elle est majeure mais dépourvue de la nationalité suisse. Elle n’allègue pas que ce statut lui aurait été refusé à tort ni ne conteste son inéligibilité au droit de vote fédéral. Dès lors, il n’y a pas lieu d’entrer en matière sur ses griefs. Le Tribunal en conclut que ni la mère ni la fille ne sont recevables à déposer une plainte en matière d’abstention ou d’irrégularité du scrutin au sens des dispositions du droit fédéral.

Le point le plus insolite du recours réside toutefois dans la prétention à reconnaître aux abeilles sauvages un droit de vote dans les affaires environnementales. Le Tribunal fédéral se penche expressément sur cette partie du recours. Il rappelle que les animaux ne sont pas des sujets de droits. Cela signifie qu’ils ne peuvent être porteurs de droits subjectifs, donc qu’ils ne sont ni titulaires de droits fondamentaux, ni capables de faire valoir des prétentions juridiques en leur propre nom. Les abeilles, aussi importantes soient-elles pour la biodiversité ou l’écosystème, n’ont donc pas la qualité de sujet de droit politique. Cette position est cohérente avec la doctrine dominante et l’état actuel du droit suisse, qui reconnaît une protection accrue des animaux (notamment dans le cadre de la législation sur la protection des animaux), mais ne leur confère aucun statut de sujet de droit au sens propre. Le Tribunal souligne que les abeilles ne peuvent être porteuses ni d’un droit de recours, ni d’un droit de vote, ni d’aucune autre prérogative juridique permettant de participer aux processus démocratiques.

En outre, les recourantes sollicitent divers actes de procédure accessoires, tels que la désignation de sachants en environnement, la mise en place d’un échange d’écritures ou encore l’usage d’un langage « interspécifiquement inclusif et libéré de toute forme de spécisme ». Le Tribunal fédéral rejette ces demandes, soit comme irrecevables, soit comme manifestement dénuées de pertinence juridique. Il indique par ailleurs qu’il se réserve à l’avenir le droit de ne plus entrer en matière sur des recours de cette nature, qu’il pourrait classer d’emblée sans suite, en vertu de son pouvoir de filtrage.

Ainsi, par cet arrêt, le Tribunal fédéral affirme notamment de manière claire et catégorique les limites du champ d’application des droits politiques dans l’ordre juridique suisse. Il rappelle que seuls les êtres humains, citoyens suisses, majeurs et capables, peuvent être sujets de ces droits. La demande de conférer des droits politiques à des mineurs ou à des animaux, si elle soulève un débat de société légitime sur la représentation des intérêts des générations futures et de la nature, relève à ce stade d’une démarche militante sans ancrage dans le droit positif. Le droit fondamental à un environnement sain, bien que de plus en plus évoqué dans la doctrine et certains forums politiques, ne saurait encore fonder une transformation du corps électoral sans révision constitutionnelle explicite.

Sources : TF 1C_607/2024 du 16 avril 2025 – http://relevancy.bger.ch/php/aza/http/index.php?lang=de&type=show_document&highlight_docid=aza://16-04-2025-1C_607-2024&print

Commentaire : Camille de Salis, L’absence de droit de vote des mineurs et des abeilles, in: https://lawinside.ch/1577/

Me Philippe Ehrenström, avocat, LLM

Publié dans Animaux, Libertés | Tagué , , , | Laisser un commentaire

L’envoi de données médicales de salariés sur une adresse email partagée

La décision 10112709 prise le 30 janvier 2025 par le Garante per la protezione dei dati personali concerne un incident de communication de données sensibles au sein d’un hôpital public, plus précisément le partage involontaire d’informations sur le statut vaccinal de deux employés sur une adresse email partagée (décision : https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/10112709).

Les faits à l’origine de cette affaire sont les suivants :

Une salariée d’un établissement hospitalier public situé à Turin a saisi le Garante d’une plainte après avoir reçu, sur la boîte mail partagée de son service, un courriel émis par le service du personnel. Ce message contenait des informations sur sa propre situation vaccinale (COVID) et sur celle d’un collègue non vacciné, suspendu pour cette raison. Cette boîte mail, utilisée par plusieurs membres du service du délégué à la protection des données (DPO), permettait donc à chacun d’eux de consulter le contenu du message et ainsi de connaître les données sensibles de leurs collègues. L’employée a considéré que cela constituait une communication illicite de données personnelles.

Le Garante a étudié attentivement le déroulement des faits, les textes applicables, et les arguments de défense présentés par l’établissement concerné. Son raisonnement s’appuie en premier lieu sur les règles générales de protection des données prévues par le Règlement général européen sur la protection des données (RGPD), ainsi que par le Code italien de la protection des données. Ces textes imposent que les données à caractère personnel soient traitées uniquement lorsque cela est nécessaire et fondé sur une base légale claire. Le traitement des données sensibles, telles que les données de santé, doit faire l’objet de précautions supplémentaires, tant sur le fond (motif légitime et prévu par la loi) que sur la forme (modalités de traitement, personnes autorisées, sécurité).

Dans le cas présent, le Garante a considéré que le choix d’utiliser une adresse e-mail partagée, même pour des raisons pratiques ou d’urgence, ne répondait pas aux exigences de la réglementation. Le fait que les collègues aient pu prendre connaissance de leurs situations vaccinales respectives a été jugé inapproprié, car ces informations ne devaient être accessibles que par les personnes strictement habilitées à en connaître dans le cadre de leurs fonctions. La règle est claire : même au sein d’une organisation, des informations sensibles sur un salarié ne peuvent être partagées qu’avec les agents expressément autorisés, en lien direct avec le traitement concerné. La communication en cause, bien qu’interne, a été considérée comme une atteinte à la vie privée des deux intéressés.

Pour sa défense, l’hôpital a fait valoir plusieurs éléments. Il a notamment expliqué qu’il s’agissait d’un cas isolé, survenu en période de forte pression due à la pandémie de Covid-19, et que l’envoi de la communication visait à éviter une confusion liée à une homonymie entre les adresses e-mail des salariés. Il a également souligné que le contenu du message était bref, qu’il ne mentionnait pas expressément le Covid ni ne détaillait les raisons médicales de la suspension, et que l’erreur avait été commise de bonne foi, dans un contexte d’urgence, en soirée, à la veille des congés de Noël. Par ailleurs, des mesures correctrices ont été prises après coup, comme la création de nouvelles adresses électroniques « alias » plus sécurisées, et l’introduction de procédures internes renforcées.

Le Garante a pris en compte ces éléments d’atténuation. Il a reconnu que l’établissement avait collaboré loyalement durant l’instruction, et que l’incident était ponctuel. Néanmoins, il a estimé que ces arguments ne suffisaient pas à écarter la qualification de violation des règles de protection des données. En effet, selon lui, l’information aurait pu – et dû – être transmise par un autre canal, confidentiel, sans exposer deux salariés à une divulgation mutuelle de leurs informations médicales. Le Garante a rappelé à cette occasion que, depuis 2007, les lignes directrices en matière de protection des données des salariés précisent que les employeurs doivent empêcher que des informations sensibles circulent de manière non contrôlée, même à l’intérieur de l’administration.

Le Garante a ainsi conclu à l’existence d’un traitement illicite des données, en violation notamment des articles 5, 6 et 9 du RGPD. L’établissement, bien que dans son rôle de vérification des obligations vaccinales imposées par la loi en période de pandémie, aurait dû mettre en place des mesures techniques et organisationnelles appropriées pour éviter cette communication indue. À cet égard, la responsabilité du choix du canal de communication incombe clairement au responsable du traitement, c’est-à-dire ici à l’administration hospitalière.

La sanction prononcée est une amende administrative de 6.000 euros. Ce montant tient compte de plusieurs facteurs, notamment la portée limitée de la violation (deux personnes concernées), l’absence d’intention malveillante, le contexte exceptionnel lié à la gestion de l’urgence sanitaire, la coopération de l’établissement pendant l’instruction, mais aussi l’existence d’antécédents en matière de non-conformité aux règles de protection des données, même s’ils concernaient d’autres domaines. La décision prévoit également que l’ordonnance soit publiée sur le site du Garante, en raison de la sensibilité des données en cause et de l’intérêt à sensibiliser les organismes publics sur ces pratiques.

En résumé, cette affaire met en lumière la vigilance que doivent observer les employeurs – publics comme privés – dans le traitement des données personnelles de leurs salariés, surtout lorsqu’il s’agit d’informations de santé. Elle rappelle que la bonne foi ne suffit pas à exclure la responsabilité juridique d’un traitement mal encadré. L’utilisation d’outils numériques courants, comme les boîtes mail partagées, doit faire l’objet d’une attention rigoureuse, et être accompagnée de procédures strictes pour garantir la confidentialité des données.

Me Philippe Ehrenström, avocat, LLM

Publié dans Protection des données, RGPD | Tagué , , , | Laisser un commentaire

Les effets de l’IA générative sur le marché du travail : tempête ou verre d’eau ?

L’étude menée par Anders Humlum et Emilie Vestergaard, Large Language Models, Small Labor Market Effects, publiée le 1er mai 2025 par le Becker Friedman Institute de l’Université de Chicago (Working Paper No. 2025-56), analyse les effets concrets des chatbots d’intelligence artificielle générative sur le marché du travail. À contre-courant des discours alarmistes ou triomphants sur une transformation imminente de l’emploi, cette recherche empirique fondée sur des données massives d’adoption et des statistiques administratives apporte un éclairage nuancé, voire déconcertant : malgré une adoption rapide et des investissements substantiels des entreprises, les effets économiques observables restent pour l’instant quasi inexistants.

L’étude s’appuie sur deux vagues d’enquêtes représentatives réalisées au Danemark fin 2023 et 2024, portant sur plus de 25 000 travailleurs répartis dans 7 000 entreprises et couvrant 11 professions exposées à l’IA générative, telles que les ressources humaines, le journalisme, le développement logiciel ou encore l’enseignement. Ces données sont croisées avec des registres administratifs détaillés, permettant de suivre l’évolution des salaires, des heures travaillées et de la mobilité professionnelle des répondants.

Le Danemark, avec son marché du travail flexible, sa culture numérique avancée et son infrastructure statistique robuste, constitue un terrain d’observation idéal pour une telle étude. L’objectif des auteurs est de mesurer non seulement l’adoption des outils d’IA, mais aussi leurs répercussions concrètes sur les conditions de travail et sur les variables économiques individuelles et collectives.

La première partie de l’étude s’intéresse à l’adoption des chatbots par les salariés et aux politiques des entreprises en la matière. On y observe un changement majeur depuis les débuts hésitants de l’IA générative : les employeurs danois sont désormais massivement engagés dans cette transition technologique. Près de la moitié des travailleurs sont encouragés à utiliser ces outils ; 38 % des entreprises déploient des modèles internes, souvent adaptés à leur propre contexte métier, et 30 % organisent des formations à l’usage de ces technologies. Cette dynamique est décisive : dans les entreprises qui encouragent activement l’usage des chatbots, le taux d’adoption atteint 83 %, contre seulement 47 % dans celles qui ne les promeuvent pas. En outre, ces initiatives permettent de réduire les inégalités d’accès.

La seconde partie de l’étude se penche sur les effets de l’IA générative sur les processus de travail. De nombreux utilisateurs déclarent que les chatbots leur permettent de gagner du temps – en moyenne 25 minutes par jour d’usage – et d’améliorer la qualité de leur travail ou leur créativité. Toutefois, ces bénéfices sont modérés : en moyenne, les gains de temps représentent seulement 2,8 % du temps de travail total. Cette estimation contraste fortement avec les résultats des expériences contrôlées (RCTs) menées dans des contextes très favorables, où les gains de productivité peuvent dépasser 15 %, voire 50 % dans certains cas. Les auteurs expliquent ce décalage par deux facteurs principaux : d’une part, l’hétérogénéité des tâches et des professions (toutes ne se prêtent pas également à l’usage des chatbots) ; d’autre part, le manque d’investissements complémentaires de la part des entreprises, comme la réorganisation des flux de travail, qui limite l’impact potentiel de la technologie.

Par ailleurs, l’étude met en évidence un phénomène souvent négligé : l’apparition de nouvelles tâches. Environ 8,4 % des travailleurs déclarent qu’ils ont commencé à exercer des fonctions inédites à la suite de l’introduction des chatbots – parfois sans même les utiliser eux-mêmes. Ces tâches concernent notamment l’intégration technique des outils, la supervision de leur usage, ou encore la régulation de leur conformité éthique et juridique. Cette dynamique de création de tâches s’étend à l’ensemble des professions étudiées et touche également les non-utilisateurs, ce qui signale un processus de transformation plus diffus du travail.

Cependant, la partie la plus frappante de l’étude réside dans l’absence d’effets significatifs sur les indicateurs économiques classiques. En mobilisant une approche rigoureuse de type différence-en-différences, les auteurs montrent que l’usage des chatbots n’a pas entraîné de variation mesurable sur les salaires, les heures travaillées, ou le maintien dans l’emploi. Les intervalles de confiance permettent même d’exclure des effets supérieurs à 1 %, et ce, dans toutes les professions étudiées. Même les utilisateurs précoces ou intensifs, qui rapportent pourtant des gains de temps et de qualité, n’ont vu aucune amélioration tangible de leur situation économique. Une analyse complémentaire fondée sur les politiques des entreprises – utilisées comme quasi-variations expérimentales – aboutit aux mêmes résultats.

Les chercheurs interrogent également les perceptions des travailleurs. À la question directe “les chatbots ont-ils affecté vos revenus ?”, 97 % des répondants répondent non. Pour ceux qui déclarent un impact, l’effet moyen perçu ne dépasse pas 0,2 %. Ces réponses confirment les données administratives et montrent que les travailleurs eux-mêmes ne s’attendent pas à des retombées économiques notables de leur usage de l’IA. Cela s’explique en partie par un mécanisme de pass-through très limité : seulement 3 à 7 % des gains de productivité se répercutent sur les revenus, essentiellement dans les entreprises qui investissent activement dans l’adoption de l’IA.

Enfin, l’étude élargit l’analyse à l’échelle des entreprises. Elle examine si les établissements où les taux d’adoption sont élevés ont connu des changements en matière d’emploi total, de masse salariale ou de composition du personnel. Là encore, les résultats sont nuls. Aucune restructuration significative n’est observable. Même les travailleurs non-utilisateurs dans ces entreprises ne rapportent pas d’évolution de leurs conditions économiques. Ces constats vont à l’encontre des hypothèses d’un effet d’éviction rapide ou d’une substitution massive du travail humain.

Dans l’ensemble, les auteurs concluent que l’IA générative, en dépit de son adoption spectaculaire, n’a pas encore produit de rupture sur le marché du travail. Cette situation rappelle la célèbre observation de Robert Solow sur l’informatisation : “On voit l’âge de l’ordinateur partout, sauf dans les statistiques de productivité.” Toutefois, cette stagnation apparente pourrait n’être que temporaire. Plusieurs mécanismes identifiés dans l’étude – comme l’importance des investissements complémentaires ou l’apparition de nouvelles tâches – laissent penser que l’impact réel de l’IA se fera sentir à plus long terme, lorsque les organisations auront restructuré leur manière de travailler autour de ces outils.

En définitive, cette étude réfute l’idée d’une transformation immédiate et massive de l’emploi par l’intelligence artificielle. Elle met en lumière le décalage entre les promesses technologiques et leurs effets économiques concrets, tout en soulignant le rôle déterminant des entreprises dans la conversion des outils numériques en productivité réelle. Ainsi, si rupture il y a, elle ne viendra pas de l’IA seule, mais de l’ensemble du système productif qui l’accompagne ou la freine.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , | Laisser un commentaire

Résiliation des rapports de service pour port d’un symbole religieux au travail

Introduction

Dans un arrêt ATA/239/2025 du 11 mars 2025, la Chambre administrative de la Cour de justice du canton de Genève s’est prononcée sur la légalité de la résiliation des rapports de service d’une infirmière, employée par l’Institution genevoise de maintien à domicile (IMAD), motivée par son refus de retirer son turban lors de ses activités professionnelles.

Faits

Mme A______, infirmière de confession musulmane, est engagée par l’IMAD dès 2013, d’abord sous contrat à durée déterminée, puis indéterminée. Elle est titularisée en juillet 2015. Pendant l’essentiel de sa carrière, elle porte un turban noir couvrant entièrement ses cheveux, ce qu’elle justifie comme une pratique personnelle, respectueuse des règles de laïcité. Elle soutient qu’il ne s’agit pas d’un signe religieux mais d’un vêtement civil sans portée confessionnelle, comparable à un col roulé ou une écharpe.

Dès 2015, l’IMAD est alertée par un patient qui se dit dérangé par ce qu’il perçoit comme un « voile » à connotation religieuse. L’affaire prend un tournant juridique à partir de l’entrée en vigueur de la loi genevoise sur la laïcité de l’État du 26 avril 2018 (LLE ; RS GE A 2 75) le 9 mars 2019. La LLE impose la neutralité religieuse aux agents publics en contact avec la population. Dès lors, l’institution entame plusieurs échanges avec Mme A______, tentant de la convaincre de retirer son turban dans l’exercice de ses fonctions. Malgré ces démarches et des avertissements clairs, elle maintient fermement son refus.

En juin 2024, des directives internes de l’IMAD viennent renforcer l’interdiction du port de couvre-chefs en contact avec le public. Mme A______, qui est soutenue par un syndicat, conteste cette directive, arguant d’une atteinte à sa personnalité, à sa liberté de conscience et à l’absence de base légale claire. Elle continue à se présenter avec son turban lors de ses prestations. Le 14 août 2024, l’IMAD prononce la résiliation de ses rapports de service avec effet au 30 novembre 2024, en application des articles 21 alinéa 3 et 22 de la loi générale relative au personnel de l’administration cantonale, du pouvoir judiciaire et des établissements publics médicaux du 4 décembre 1997 (LPAC ; RS GE B 5 05)

Mme A______ saisit alors la chambre administrative pour contester cette décision. Elle invoque principalement une violation de sa liberté religieuse et des droits fondamentaux garantis par la Constitution et la CEDH. Elle sollicite l’annulation de la décision ou, à défaut, une indemnité équivalente à 24 mois de salaire.

Question

La question centrale est de savoir si l’IMAD était fondée à résilier les rapports de service de Mme A______ pour manquement à son devoir de neutralité religieuse, au motif qu’elle portait un turban perçu comme un signe confessionnel, et si cette mesure respecte les exigences de légalité, de nécessité et de proportionnalité posées par le droit suisse et la jurisprudence de la Cour européenne des droits de l’homme.

Cadre légal applicable

Plusieurs dispositions légales entrent en ligne de compte :

Art. 3 al. 5 LLE  : impose la neutralité religieuse aux agents publics lorsqu’ils sont en contact avec la population.

Art. 2A al. 2 LPAC  : prévoit que les fonctionnaires doivent respecter les principes légaux, dont ceux relatifs à la laïcité.

Art. 21 al. 3 et art. 22 LPAC : encadrent les motifs de licenciement fondés et les conditions de résiliation des rapports de service.

Art. 21 let. b et c du règlement d’application de la LPAC du 24 février 1999 (RPAC ; RS GE  B 5 05.01) : précisent les devoirs d’attitude générale, dont la loyauté et la neutralité.

Art. 15 et 36 Cst. : protègent la liberté de conscience et  de religion et prévoient les conditions de la restriction des droits fondamentaux

Art. 8 al. 1 Cst. : interdit les discriminations.

Art. 9 §2 et 14 CEDH : encadrent la liberté de manifester sa religion et l’égalité de traitement.

Arguments des parties

Mme A______ affirme que le port du turban n’a jamais entravé ses prestations ni suscité de plaintes concrètes récentes. Selon elle, son turban est un habit civil sans connotation religieuse, qu’elle porte par respect pour ses convictions et non pour exprimer une appartenance. Elle souligne que l’IMAD a déjà accepté le port du turban pour d’autres employés, ce qui constitue à ses yeux une inégalité de traitement. Elle reproche à l’institution d’avoir modifié ses directives vestimentaires en cours de procédure, ce qui aurait modifié unilatéralement son contrat de travail. Elle invoque également une atteinte à sa dignité et une discrimination indirecte fondée sur ses croyances.

L’IMAD, pour sa part, soutient que le turban porté de manière systématique, même en été, est objectivement perçu comme un signe religieux. Elle rappelle que Mme A______ a reconnu à plusieurs reprises, depuis 2015, que cette coiffe était liée à ses convictions spirituelles. Elle insiste sur la nécessité de préserver la neutralité du service public, en particulier dans un domaine aussi sensible que les soins à domicile. L’employeur fait valoir qu’aucune mesure moins intrusive n’était possible et qu’un reclassement était exclu en raison du refus catégorique de l’intéressée. Il réfute toute discrimination ou harcèlement.

Motifs de l’arrêt

La chambre administrative confirme d’abord que le recours est recevable sur la forme. Sur le fond, elle rappelle que le port du turban constitue, dans le contexte spécifique genevois, une manifestation de convictions religieuses, au sens des articles 15 Cst. et 9 CEDH. Toutefois, cette liberté n’est pas absolue. Elle peut être restreinte pour préserver des intérêts publics majeurs, tel que le respect du principe de laïcité (ATF 148 I 160).

En l’espèce, la cour retient que l’IMAD est une entité publique soumise à la LLE. Elle conclut que l’obligation de neutralité découle directement de l’article 3 alinéa 5 LLE et que cette obligation s’impose au personnel en contact avec les usagers. La restriction imposée à Mme A______ est donc fondée sur une base légale claire et vise un but légitime. En ce sens, elle est conforme aux conditions des articles 36 alinéas 1 à 3 Cst. et 9 §2 CEDH.

S’agissant de la proportionnalité, la cour considère que l’interdiction du turban s’applique uniquement pendant l’exercice de l’activité professionnelle en contact avec le public. Elle juge cette restriction limitée, nécessaire à la neutralité du service public et adaptée aux circonstances. La recourante n’ayant proposé aucune solution alternative, la résiliation est jugée proportionnée.

La cour écarte également les griefs de discrimination. Elle admet que le traitement différencié de la barbe ou d’autres accessoires vestimentaires n’est pas comparable, car le turban ici en cause a une portée symbolique particulière. Par ailleurs, le cas d’une autre employée autorisée à porter un turban dans un contexte différent ne permet pas de conclure à une inégalité de traitement systématique.

Enfin, la chambre constate l’absence de reproche sur la qualité des soins, mais souligne que la rupture du lien de confiance résulte du refus persistant d’obéir à une obligation légale claire, ce qui justifie la mesure de licenciement. Elle juge donc que la décision de l’IMAD repose sur un motif fondé au sens des articles 21 alinéa 3 et 22 LPAC.

Dispositif

Le recours est rejeté. L’émolument de CHF 1’000.– est mis à la charge de la recourante, aucune indemnité de procédure n’est allouée. Le jugement peut faire l’objet d’un recours en matière de droit public devant le Tribunal fédéral, conformément aux articles 82 ss de la loi fédérale sur le Tribunal fédéral (LTF – RS 173.110).

Conclusion

Cet arrêt illustre la délicate conciliation entre liberté religieuse et neutralité dans le service public. Il confirme que, dans le canton de Genève, le principe de laïcité peut justifier, sous conditions strictes, une restriction ciblée de la liberté de manifester sa religion dans un contexte professionnel. L’arrêt rappelle aussi que le respect des règles institutionnelles ne saurait être facultatif, même en l’absence d’intention prosélyte.

Me Philippe Ehrenström, avocat, LLM

Publié dans Fonction publique, Libertés | Tagué , , , , , | Laisser un commentaire

Les hallucinations de l’IA générative : dérèglement des sens ou logique de l’idée ?

Introduction

Dans le domaine de l’intelligence artificielle générative, le terme « hallucination » désigne la production par un modèle de langage (LLM, pour Large Language Model) de contenus erronés, fictifs ou inexacts, tout en les présentant de manière convaincante, voire avec autorité. Cette notion recouvre plusieurs formes d’inexactitudes :

  • fautes factuelles (ex. : inventer une décision de justice),
  • faux raisonnements logiques (ex. : conclusions non déductibles des données),
  • inventaire de sources inexistantes (ex. : fausses citations bibliographiques),
  • ou encore dérives interprétatives lorsque le modèle « comble les vides » avec des éléments plausibles mais infondés….

Le phénomène est d’autant plus problématique quand il affecte des domaines sensibles comme le droit, la santé ou l’éducation.

Cela étant dit, le terme est-il correct, ou donne-t-il une fausse image – anthropocentrée – de l’intelligence artificielle et de son fonctionnement ?

Origine du phénomène : comment fonctionnent les LLM ?

Le principe fondamental : la prédiction de texte

Les LLM reposent sur un principe simple : prédire le mot suivant dans une séquence, en fonction d’un immense corpus d’exemples (internet, livres, journaux, etc.). Ce processus repose sur une architecture dite transformer, introduite par le célèbre article « Attention is All You Need » (Vaswani et al., 2017).

Le modèle apprend ainsi statistiquement quelles combinaisons de mots sont les plus probables dans un contexte donné. Cela signifie que le LLM ne « comprend » pas le monde comme un humain, mais manipule des représentations linguistiques probabilistes.

La limite : absence de référent vérifiable

Un LLM ne dispose pas, en tant que tel, d’un accès à la réalité. Il ne consulte pas une base de données ou une source externe en temps réel (sauf dans les systèmes hybrides de type RAG – retrieval augmented generation). Dès lors, lorsqu’il génère une réponse, il ne fait aucune vérification factuelle, mais extrapole à partir de son entraînement dans le cadre d’un raisonnement statistique et probabiliste.

Mécanismes techniques des hallucinations

Les hallucinations résultent de plusieurs facteurs intrinsèques aux LLM :

1. Entraînement sur des données bruitées

Les LLM sont entraînés sur des données hétérogènes, non filtrées, souvent issues du web. Cela inclut des contenus erronés, obsolètes ou biaisés, qui alimentent la « mémoire » du modèle.

2. Sur-généralisation et approximations

En l’absence d’information complète ou explicite, le modèle peut extrapoler de façon abusive, produisant une réponse cohérente dans la forme mais incorrecte sur le fond.

3. Absence de référentiel tiers

Un LLM ne sait pas ce qu’est une vérité. Il optimise la plausibilité linguistique, pas l’exactitude. Il peut donc affirmer une erreur avec le même ton qu’une vérité vérifiée.

Pourquoi les hallucinations persistent-elles malgré les progrès des LLM ?

1. Taille du modèle ≠ fiabilité

Un modèle plus grand (ex. : GPT-4, Claude, Gemini) est plus puissant et expressif, mais cela n’implique pas nécessairement moins d’erreurs. La complexité croissante rend parfois le modèle plus difficile à contrôler et à interpréter.

2. Illusion de compétence

Les LLM sont capables de formuler des phrases grammaticalement parfaites et stylistiquement crédibles. Cela crée une illusion de véracité qui rend les erreurs d’autant plus difficiles à détecter.

3. Contexte d’usage non maîtrisé

Dans des domaines spécialisés (droit, médecine), l’utilisateur peut se retrouver dépendant des réponses, sans toujours disposer des outils pour en évaluer la véracité, surtout si la réponse semble « bien formulée ».

Conclusion

Les hallucinations ne sont pas un « bug » des LLM, mais une caractéristique structurelle de leur fonctionnement statistique. Elles ne représentent ainsi pas un « dérèglement des sens » causés par l’ingestion de stupéfiants ou des troubles psychiques, sens qui fonctionneraient autrement de manière satisfaisante, mais bien l’accomplissement d’une logique de l’idée poussée jusqu’à son terme (Antoine Destutt de Tracy plutôt que Thomas de Quincey si on veut…) Il serait dès lors plus correct, et moins anthropocentré, de parler d’idéologie du LLM, plus que de ses hallucinations.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , | Laisser un commentaire