Neurotechnologies et protection des données

Le document intitulé «Emerging Neurotechnologies and Data Protection», publié le 15 mai 2025 par le groupe de travail international sur la protection des données dans les technologies (IWGDPT, aussi appelé Berlin Group), fournit une analyse approfondie des implications juridiques, techniques, éthiques et sociales de l’utilisation des neurotechnologies et du traitement des neurodonnées. Il est structuré en dix sections principales, chacune abordant une dimension spécifique du sujet, et s’adresse aux autorités de protection des données, aux développeurs de technologies, aux décideurs politiques et aux praticiens du droit.

L’introduction établit le cadre général. La montée en puissance des technologies capables de capter, traiter et interpréter des données directement issues de l’activité cérébrale et du système nerveux central remet en question les frontières classiques de la vie privée, autrefois définies en termes de distance physique et de contrôle spatial. Désormais, il est techniquement possible d’accéder à des aspects profondément intimes de la personnalité humaine, comme les émotions, les intentions ou la concentration. Si les applications médicales sont les premières concernées, le rapport alerte sur leur possible extension à des contextes professionnels, éducatifs ou domestiques, via des dispositifs de consommation courante comme les casques audio, les lunettes de réalité augmentée ou les objets connectés. Ces perspectives soulèvent des enjeux inédits de dignité humaine, d’identité mentale, de libre arbitre et de discrimination.

La deuxième section définit les concepts centraux. Les neurodonnées sont classées en deux ordres : les données de premier ordre sont directement issues du cerveau ou du système nerveux (par exemple, des signaux EEG ou l’activité neuronale captée via des implants), tandis que les données de second ordre sont des inférences directement déduites de celles-ci (par exemple, des informations sur l’état émotionnel ou les intentions motrices). Les neurotechnologies sont définies comme les dispositifs – invasifs ou non – qui permettent de collecter ou moduler ces données, que ce soit à des fins de diagnostic, d’interaction homme-machine ou de stimulation cérébrale. Sont exclus les systèmes qui émulent simplement l’activité cérébrale sans données neurales réelles, comme certaines formes d’intelligence artificielle.

La troisième section examine le cadre juridique, en particulier européen. Le RGPD ne contient pas de définition spécifique des neurodonnées, mais l’article 4 ch. 1  évoque l’« identité psychique » comme élément de la notion de données personnelles. L’article 3 de la Charte des droits fondamentaux de l’Union européenne consacre le droit à l’intégrité physique et mentale, ce qui pourrait servir de fondement à une protection renforcée des neurodonnées. Le rapport souligne aussi que certaines utilisations (comme le profilage à des fins de sécurité ou de marketing) présentent des risques inacceptables et sont probablement illicites au regard du droit de l’Union.

La quatrième partie introduit le concept de « neurorights » – des droits fondamentaux spécifiques à la sphère cérébrale, comme le droit à l’intégrité mentale, à la liberté cognitive, à la vie privée mentale ou à la non-manipulation. Si ces droits ne sont pas encore formellement intégrés dans les traités internationaux, certaines initiatives nationales, comme au Chili, ont déjà inscrit un droit explicite à la neuroprotection dans leur Constitution. L’Espagne et le Brésil ont aussi exploré des pistes similaires. À ce stade, la communauté internationale débat encore de la pertinence de créer un corpus juridique autonome ou d’adapter les droits existants.

La cinquième section traite de la licéité du traitement des neurodonnées. Elle insiste sur la difficulté, voire l’impossibilité, de fonder certaines utilisations sur le consentement éclairé. Le caractère involontaire et souvent inconscient des données mentales pose un défi éthique fondamental. Une personne peut croire consentir à l’analyse de ses réactions dans un jeu vidéo, sans savoir que ses données révèlent aussi son état émotionnel, sa santé mentale ou sa capacité de concentration. Cette ambiguïté impose une vigilance accrue sur les principes de finalité, de minimisation et de proportionnalité. Il est aussi rappelé que même un consentement explicite ne saurait légitimer un traitement attentatoire à la dignité humaine.

Dans la sixième section, le rapport se penche sur la neurostimulation ou neuromodulation – c’est-à-dire l’envoi de signaux dans le cerveau via des dispositifs actifs (implants, électrodes, stimulation magnétique, etc.). Cette fonction, bien que médicale à l’origine, pourrait être détournée vers des usages commerciaux, comportementaux ou disciplinaires. Elle soulève des inquiétudes majeures en matière de liberté individuelle, d’autonomie et de consentement. Le contrôle de tels dispositifs par des tiers – employeurs, institutions scolaires, assureurs – constitue une menace sérieuse pour l’intégrité psychique et la souveraineté cognitive des individus.

La septième partie aborde la question des mineurs. L’utilisation de neurotechnologies chez les enfants soulève des problèmes accrus, notamment en termes de développement cérébral, de sensibilité à la manipulation et de difficulté à comprendre les implications du traitement de leurs données. Le document recommande une interdiction stricte du profilage neuronal à des fins de marketing, déjà prohibé par le Digital Services Act (DSA), et insiste sur la nécessité d’une approche prudente, fondée sur l’intérêt supérieur de l’enfant.

La huitième section est consacrée à la conception technique des neurotechnologies selon les principes de protection des données dès la conception et par défaut. Elle distingue les aspects liés à la technologie elle-même (confidentialité des transmissions, sécurisation des dispositifs, résilience aux attaques) et ceux liés au traitement des données (finalités précises, minimisation, transparence). Le concept de « neurosecurity » est mis en avant, définissant la nécessité de garantir la confidentialité, l’intégrité et la disponibilité des données cérébrales. Une analogie est faite avec les dispositifs médicaux implantables (pacemakers, pompes à insuline), pour lesquels les failles de sécurité peuvent avoir des conséquences vitales.

La neuvième partie décrit plusieurs cas d’usage sectoriels. Des scénarios dans les domaines du travail, de l’éducation, du marketing, de la sécurité publique ou des transports illustrent les risques potentiels : surveillance de l’attention au travail, détection automatisée de la somnolence chez les conducteurs, adaptation des contenus en fonction de l’émotion perçue, voire détection d’intentions criminelles. Le document insiste sur la nécessité d’évaluer chaque cas au prisme des droits fondamentaux, en particulier la dignité, la liberté de pensée et l’autodétermination.

Enfin, la dixième section formule des recommandations, d’une part pour les régulateurs, d’autre part pour les développeurs et exploitants. Les autorités devraient clarifier les notions clés (intégrité mentale, identité cognitive, liberté de pensée), encadrer les usages selon des niveaux de risque (en s’inspirant du règlement européen sur l’IA), et promouvoir un dialogue international sur les neurorights. Les entreprises, quant à elles, sont appelées à respecter la nécessité et la proportionnalité du traitement, garantir la transparence, segmenter clairement les fonctions de lecture et d’écriture neuronale, tester la compréhension réelle des utilisateurs, documenter leurs choix en matière de gouvernance des données, et éviter toute exploitation abusive des vulnérabilités cognitives, notamment chez les jeunes.

En résumé, ce document est une mise en garde lucide et structurée sur les enjeux de la neurotechnologie. Il appelle à une régulation préventive, fondée sur les droits fondamentaux, et met en évidence les limites du paradigme classique de la protection des données face à des technologies qui touchent au cœur même de l’identité humaine. Pour les avocats suisses, ce rapport constitue une ressource précieuse afin d’anticiper les évolutions réglementaires européennes et internationales dans un domaine où les frontières entre le corps, l’esprit et le traitement algorithmique deviennent de plus en plus poreuses.

(Le document peut être téléchargé ici : https://www.bfdi.bund.de/SharedDocs/Downloads/EN/Berlin-Group/20250515-WP-Neurotechnologies.pdf?__blob=publicationFile&v=2)

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données, RGPD | Tagué , , | Laisser un commentaire

Licenciement immédiat de l’employé délinquant, délai de réaction

Dans un arrêt 102 2024 21 du 12 février 2025, la IIe Cour d’appel civil du Tribunal cantonal fribourgeois a confirmé la validité du licenciement immédiat prononcé par une société à l’encontre d’un employé, en retenant l’abus de confiance commis par celui-ci comme juste motif de résiliation avec effet immédiat au sens de l’article 337 alinéa 1 du Code des obligations (CO). L’affaire concernait un agent commercial, engagé en 2017 sans contrat écrit, qui avait encaissé et conservé sans droit une somme de plus de CHF 30’000 auprès de divers clients de son employeur. Il avait reconnu les faits en fin de mois de septembre 2017 et signé, début octobre, une reconnaissance de dette, assortie d’une promesse de remboursement jamais concrétisée. L’employeur, après avoir entrepris diverses vérifications, a licencié l’employé sur-le-champ lors d’une réunion tenue le 11 octobre 2017. Ce dernier a contesté la validité du congé et a introduit une action en paiement portant notamment sur des arriérés de salaire.

La Cour a d’abord rappelé que la résiliation immédiate du contrat de travail constitue une mesure exceptionnelle, à n’admettre qu’avec retenue. Conformément à la jurisprudence constante du Tribunal fédéral, seuls des faits d’une gravité particulière peuvent justifier une telle rupture. Il doit s’agir d’un manquement suffisamment grave pour entraîner la perte du rapport de confiance nécessaire à la poursuite des relations contractuelles. Lorsqu’il s’agit d’une infraction pénale, encore faut-il que l’employeur puisse prouver l’existence objective des faits reprochés : le simple soupçon, aussi sérieux soit-il, ne suffit pas. En revanche, une infraction pénale effectivement commise à l’encontre de l’employeur, notamment en lien avec l’exercice de la fonction – comme un détournement de fonds ou un abus de confiance –, constitue en principe un juste motif de licenciement immédiat. Dans le cas d’espèce, cette condition était remplie : le travailleur avait été reconnu coupable, par ordonnance pénale entrée en force, d’un abus de confiance au préjudice de son employeur. Ce comportement, consistant à s’approprier sciemment des fonds destinés à la société pour couvrir des dépenses personnelles, représentait une atteinte grave à l’obligation de fidélité ancrée à l’article 321a CO. Le lien de confiance avait ainsi été irrémédiablement rompu.

L’attention de la Cour s’est ensuite portée sur la deuxième condition d’un licenciement immédiat valable : la nécessité pour l’employeur de réagir sans délai à compter de la connaissance des faits. En effet, le congé immédiat doit être notifié dès que la partie qui entend s’en prévaloir a connaissance du juste motif, ou dans un très court délai de réflexion, généralement deux ou trois jours ouvrables. Passé ce délai, l’employeur risque d’être considéré comme ayant accepté la poursuite du contrat, ce qui ferait obstacle à la résiliation immédiate. Toutefois, ce principe doit s’appliquer de manière nuancée, notamment lorsque les faits nécessitent des clarifications ou une évaluation plus approfondie. Il est ainsi que l’employeur puisse bénéficier d’un délai un peu plus long lorsque les circonstances l’exigent, en particulier lorsqu’une enquête interne s’impose. Il convient alors de démontrer que l’employeur a agi de manière continue et diligente dans ses investigations.

En l’occurrence, l’employé avait certes reconnu les faits fin septembre 2017, mais l’étendue exacte du préjudice n’était pas connue avec certitude à ce moment-là. L’employeur ne pouvait raisonnablement se fier aux seules déclarations de l’auteur des faits. Il a alors entrepris, dans les jours qui ont suivi, des vérifications comptables, contacté les clients concernés et convoqué l’intéressé à un entretien. Ce n’est qu’après avoir réuni des éléments suffisamment clairs quant à la nature et à l’ampleur du manquement que le congé a été notifié oralement, le 11 octobre. La Cour a jugé que ce délai d’environ dix jours n’était pas excessif au regard des circonstances concrètes. Le comportement de l’employeur a été qualifié de conforme aux exigences de célérité et de diligence imposées par la jurisprudence. Il n’était pas possible, dans une affaire aussi sensible et financièrement lourde de conséquences, d’attendre de l’employeur une réaction précipitée dès les premiers aveux de l’employé, d’autant que la reconnaissance de dette, bien qu’existante, ne permettait pas encore de mesurer l’ampleur réelle du dommage.

Par conséquent, le grief de licenciement tardif a été écarté. Le travailleur, qui ne contestait pas sérieusement la matérialité des faits ni leur qualification pénale, mais se limitait à soutenir que le congé était intervenu trop tard, n’a pas convaincu la Cour. Celle-ci a confirmé la décision de première instance en ce qu’elle reconnaissait la validité du licenciement immédiat, rejetait les prétentions salariales postérieures à la date de rupture et excluait toute indemnité fondée sur une prétendue résiliation injustifiée.

En résumé, la commission d’un délit contre l’employeur – et en particulier un abus de confiance – peut constituer un fondement légitime pour une résiliation immédiate du contrat. Il n’est pas nécessaire que la condamnation pénale soit intervenue au moment du licenciement, mais les faits doivent être suffisamment établis pour justifier la perte du rapport de confiance. L’employeur doit réagir avec célérité dès qu’il a connaissance des éléments nécessaires pour apprécier la gravité de la situation. Cela ne signifie pas une obligation de précipitation : un temps raisonnable peut être pris pour éclaircir les faits, à condition que cette démarche soit menée sans retard, de manière continue, et avec un objectif clair de vérification et de protection des intérêts de l’entreprise. Enfin l’arrêt rappelle également, en toile de fond, l’importance de documenter toutes les étapes du processus menant au licenciement. Cette documentation contribue à démontrer, le cas échéant, tant la réalité du juste motif que la rapidité raisonnable de la réaction de l’employeur.

Me Philippe Ehrenström, avocat, LLM

Publié dans Licenciement immédiat | Tagué , , | Laisser un commentaire

Les plateformes de notation des employeurs par les employés

La Cour d’appel de Paris a été saisie par la société NOVAMINDS, spécialisée dans le conseil en gouvernance et cybersécurité, à la suite de la publication sur le site internet Glassdoor.fr d’un avis négatif laissé par un internaute se présentant comme un ancien salarié. L’avis en question, intitulé « Plus au niveau », attribuait à NOVAMINDS une note de deux étoiles sur cinq et critiquait notamment le manque d’attention au bien-être des consultants, un management jugé pléthorique et une fuite des talents. L’entreprise, s’estimant atteinte dans sa réputation, a adressé une notification de contenu illicite à GLASSDOOR en sollicitant la suppression de cet avis. Faute de réponse favorable, elle a engagé une procédure judiciaire devant le président du tribunal judiciaire de Paris, qui a rejeté sa demande. NOVAMINDS a interjeté appel de ce jugement, sollicitant l’infirmation de la décision et la suppression de l’avis en cause.

La société appelante fondait principalement sa demande sur deux arguments. D’une part, elle considérait que l’avis contrevenait à la clause de réserve figurant dans ses contrats de travail, qui interdit aux salariés, y compris après la fin de leur contrat, de tenir des propos dénigrants à l’encontre de l’entreprise, de ses dirigeants ou de ses clients. D’autre part, elle estimait que les propos diffusés étaient dénigrants au sens du droit commun de la responsabilité civile et qu’ils portaient atteinte à sa réputation commerciale.

La cour a commencé par rappeler les conditions dans lesquelles des mesures de retrait peuvent être ordonnées en application de l’article 6-I-8 de la loi pour la confiance dans l’économie numérique (LCEN). Ce texte permet au juge de prescrire à toute personne susceptible d’y contribuer les mesures nécessaires pour prévenir ou faire cesser un dommage causé par un contenu en ligne. Toutefois, de telles mesures ne peuvent être décidées qu’à la condition que le contenu en cause soit effectivement illicite, que le dommage soit caractérisé et que la mesure sollicitée soit nécessaire, proportionnée et respectueuse des libertés fondamentales, en particulier du droit à la liberté d’expression et au respect de la vie privée.

S’agissant du premier fondement avancé par NOVAMINDS, la Cour a considéré que si la clause de réserve invoquée était bien insérée dans les contrats de travail de l’entreprise et étendue à la période post-contractuelle, elle ne saurait pour autant priver les salariés ou anciens salariés de toute liberté d’expression quant à leur expérience professionnelle. Ainsi, le fait pour un salarié de critiquer publiquement son ancien employeur ne constitue pas nécessairement une violation de cette clause. Pour que celle-ci puisse être utilement invoquée, encore faut-il démontrer que les propos tenus sortent du cadre de la critique admissible. En l’espèce, la Cour a constaté que les termes employés dans l’avis litigieux, bien que critiques et ironiques, ne présentaient pas de caractère outrancier ou excessif. Ils ne contenaient pas non plus d’éléments objectivement faux ou mensongers avérés. L’impossibilité de vérifier, en raison de l’anonymat garanti par la plateforme, si l’auteur de l’avis était effectivement lié par une telle clause n’a pas été jugée déterminante. En tout état de cause, la clause de réserve ne saurait interdire toute expression d’un ressenti ou d’un vécu professionnel dès lors que celui-ci est exprimé avec mesure.

Concernant le second argument, relatif au caractère dénigrant de l’avis, la Cour a précisé la notion de dénigrement. Celui-ci se caractérise par la divulgation d’informations susceptibles de jeter le discrédit sur une entreprise, en dehors de tout débat d’intérêt général, sans base factuelle suffisante et dans des termes dépourvus de mesure. Or, dans le cas d’espèce, le commentaire ne portait pas sur la qualité des produits ou des services de NOVAMINDS mais sur le fonctionnement interne de l’entreprise, notamment sa gestion managériale et les conditions de travail. Ces sujets, selon la Cour, sont précisément ceux sur lesquels les plateformes comme Glassdoor sont conçues pour recueillir des témoignages d’employés, qu’ils soient favorables ou critiques. L’avis incriminé ne constituait donc pas un acte de concurrence déloyale, ni une atteinte directe à l’image commerciale de la société. Il exprimait une opinion personnelle, dans un cadre prévu à cet effet, et s’inscrivait dans le champ de la liberté d’expression. Le terme « marché » employé dans l’avis renvoyait d’ailleurs au marché de l’emploi et non au marché économique sur lequel l’entreprise évolue, comme le soutenait NOVAMINDS.

La Cour a également souligné que les inexactitudes alléguées par la société, telles que le nombre de niveaux hiérarchiques ou l’effectif exact à la date de publication, ne suffisaient pas à rendre l’avis illicite. Ces éléments relèvent d’une appréciation subjective ou peuvent évoluer dans le temps, et leur approximation n’ôte pas à l’avis son caractère d’opinion légitime. Par ailleurs, l’entreprise ne pouvait exiger de GLASSDOOR qu’elle révèle l’identité de l’auteur de l’avis, l’anonymat étant consubstantiel à la nature du site et protégé par les principes de protection des données à caractère personnel.

En conclusion, la Cour a considéré que l’avis en cause ne présentait pas de caractère illicite. Il ne méconnaissait ni la clause contractuelle invoquée, ni les limites de la liberté d’expression. Dès lors, aucune mesure de retrait ne pouvait être ordonnée. Le préjudice invoqué par NOVAMINDS, tant économique que réputationnel, n’était pas démontré de manière probante. En conséquence, la Cour a confirmé la décision de première instance en toutes ses dispositions, rejeté l’ensemble des demandes formulées par NOVAMINDS, et l’a condamnée aux dépens d’appel ainsi qu’à verser à la société GLASSDOOR une indemnité de 10 000 euros au titre des frais irrépétibles.

(Cour d’appel de Paris du 7 mai 2025, RG no 23/18809)

Cet arrêt rappelle que le droit à la critique de l’employé, même négative, est protégé lorsque l’expression reste mesurée, factuelle ou relevant d’un vécu sincère. Pour les directions des ressources humaines, il constitue un repère important sur les limites des clauses de réserve et sur les recours envisageables en matière de réputation en ligne. L’entreprise ne peut obtenir la suppression d’un avis défavorable que si elle démontre une atteinte caractérisée, fondée sur des propos manifestement illicites, ce qui n’était pas le cas en l’espèce.

Me Philippe Ehrenström, avocat, LLM

Publié dans Devoir de fidélité et diligence, liberté d'expression, Protection de la personnalité | Tagué , , , , | Laisser un commentaire

Senior Manager Regime: qui est concerné?

À la suite de la faillite de la Credit Suisse et du scandale Archegos, la Suisse envisage sérieusement l’introduction d’un régime de responsabilité individuelle des dirigeants bancaires, inspiré du Senior Managers Regime (SMR) britannique. Ce régime vise à renforcer la gouvernance des établissements financiers en clarifiant les responsabilités individuelles des personnes occupant des fonctions critiques au sein des banques. L’article de Susan Emmenegger (Senior Managers Regime: Wer sind die Senior Manager?, à paraître dans «Sonderheft Bankenstabilität», SZW/RSDA, 2025) traite de la transposition possible d’un tel dispositif en Suisse, en comparant les modèles existants au Royaume-Uni, en Irlande et au sein de l’Union européenne, et en recommandant une approche propre au contexte juridique helvétique.

Le Senior Managers Regime repose sur l’idée que les défaillances bancaires proviennent souvent d’une dilution des responsabilités et d’un manque de traçabilité des décisions. Il vise à identifier, pour chaque domaine d’activité jugé risqué, une personne spécifiquement responsable, dont les compétences sont préalablement vérifiées et dont les devoirs sont formalisés dans un document de responsabilités individuel. Les institutions doivent également tenir une cartographie complète de leurs fonctions critiques, afin de permettre aux autorités de supervision de situer précisément qui est responsable de quoi.

Dans la pratique, les juridictions qui ont mis en œuvre un tel régime l’ont fait selon des logiques distinctes. Le Comité de Bâle, dont les standards influencent fortement le droit bancaire européen, adopte une conception traditionnelle de la hiérarchie bancaire en distinguant le conseil d’administration (Board of Directors) du management opérationnel. Le Senior Management désigne ici les personnes chargées de la gestion quotidienne de l’établissement, soit, dans la lecture suisse, la direction générale. Cette conception demeure toutefois ancrée dans une vision moniste de la gouvernance, typique des pays anglo-saxons.

L’Union européenne, à travers ses directives CRD IV et VI, a fait évoluer sa compréhension du Senior Management. Alors que la directive initiale pouvait prêter à confusion en plaçant le Senior Management tantôt sur le même plan que la direction exécutive, tantôt en dessous, la version révisée clarifie les rôles. Le Senior Management y est défini comme l’ensemble des personnes qui exercent des fonctions exécutives sous l’autorité du conseil de direction mais qui ne sont pas elles-mêmes membres de ce dernier. Dans le cadre dualiste suisse, cela correspondrait à une strate de cadres située sous la direction générale. Cette définition s’accompagne de la reconnaissance des « fonctions clés » – finances, risques, conformité et audit interne – qui, en raison de leur impact sur la conduite des affaires, doivent également faire l’objet d’un encadrement spécifique, même si leurs titulaires ne sont pas membres formels de l’organe de direction.

Le Royaume-Uni adopte une approche résolument fonctionnelle. Une fonction est qualifiée de Senior Management Function dès lors qu’elle implique une responsabilité décisionnelle susceptible d’avoir des conséquences graves pour l’établissement ou pour la stabilité du marché financier britannique. Le critère déterminant est donc le risque inhérent à la fonction, indépendamment de son positionnement hiérarchique. Une liste exhaustive de fonctions concernées est établie par les autorités de surveillance. Elle inclut tant des membres du conseil d’administration – notamment le président et les présidents des comités clés – que des dirigeants exécutifs et des responsables de fonctions de contrôle.

L’Irlande, quant à elle, a mis en place un régime analogue, le « Individual Accountability Framework », en utilisant une terminologie différente mais une logique semblable. Les fonctions critiques sont qualifiées de « Pre-Approval Controlled Functions », et leur désignation repose également sur une approche fonctionnelle. Les autorités irlandaises publient elles aussi une liste précisant quelles fonctions sont soumises à des obligations renforcées. La différence principale avec le modèle britannique réside dans le fait que l’Irlande inclut tous les membres du conseil d’administration dans ce périmètre, y compris les membres non exécutifs.

Partant de ces analyses comparatives, Emmenegger propose pour la Suisse une approche mixte, combinant des éléments institutionnels et fonctionnels. Le critère central pour définir les personnes concernées est celui de la « responsabilité en matière de risques ». Cela signifie qu’une personne doit être considérée comme Senior Manager si elle est en mesure d’influencer, de contrôler ou de diriger les risques de l’établissement. Cette capacité peut résulter soit d’une appartenance à un organe de direction – conseil d’administration ou direction générale –, soit de la titularité d’une fonction clé. Dans le contexte suisse, où les membres de la direction sont considérés comme des organes de l’entreprise au même titre que les administrateurs, il est proposé d’inclure systématiquement tous les membres de ces deux organes dans le périmètre du régime de responsabilité. Ce choix se justifie par leur rôle stratégique et leur statut actuel de garants de la conformité (Gewährsträger), soumis à une évaluation d’aptitude et d’honorabilité.

Parallèlement, certaines fonctions situées hors des organes de direction doivent être intégrées sur la base de leur impact concret sur la gestion des risques. C’est le cas des fonctions financières, du risque, de la conformité et de l’audit interne, mais également de nouvelles fonctions telles que la direction des systèmes d’information ou des opérations, dont l’importance a crû avec la transformation numérique du secteur bancaire. Le critère commun à toutes ces fonctions est l’influence significative qu’elles exercent sur l’organisation et la conduite des affaires de l’établissement.

Une question délicate concerne l’inclusion des membres non exécutifs du conseil d’administration. Le modèle britannique les exclut en général, à l’exception du président du conseil et des présidents des comités spécialisés. Ce choix repose sur la crainte que la responsabilité accrue ne conduise ces membres à interférer dans la gestion opérationnelle, au détriment de leur rôle de supervision critique. L’Irlande, en revanche, les inclut pleinement, estimant qu’ils exercent une fonction essentielle dans la surveillance de la direction. En Suisse, compte tenu du rôle collégial mais juridiquement engagé des administrateurs, ainsi que de leurs obligations de diligence et de loyauté, l’auteure estime légitime de les inclure tous dans le champ du régime. Ils sont déjà aujourd’hui responsables individuellement au sens du droit des sociétés, et leur engagement actif dans la supervision des risques justifie leur soumission à un dispositif de responsabilité renforcé.

Dans sa proposition finale, Emmenegger recommande d’élargir le régime actuel de contrôle de l’aptitude aux fonctions critiques (Fit and Proper) en y intégrant les principes du Senior Managers Regime, avec la tenue de documents de responsabilités et d’une cartographie des fonctions. Ce modèle, baptisé « GewährPlus », aurait pour effet de renforcer la traçabilité des décisions, d’éviter les zones grises de responsabilité et de promouvoir une culture de gouvernance fondée sur la clarté, la compétence et l’engagement personnel.

L’adoption d’un tel régime représenterait une évolution modérée mais structurante pour les grandes banques suisses. Elle ne bouleverserait pas les pratiques existantes mais les consoliderait dans un cadre légal cohérent et aligné avec les standards internationaux. Pour les établissements plus petits, l’effort de mise en conformité serait plus important, mais proportionné au regard des enjeux de stabilité financière et de confiance dans le système bancaire.

Ainsi, à travers une analyse comparative, l’article met en évidence la nécessité et la faisabilité d’un régime suisse de responsabilité individuelle des dirigeants, adapté au modèle dualiste helvétique, et combinant judicieusement les approches institutionnelles et fonctionnelles.

Me Philippe Ehrenström, avocat, LLM

Publié dans Devoir de fidélité et diligence, Divers, Procédure, Qualification du contrat, Responsabilité du travailleur | Tagué , , , , | Laisser un commentaire

Les effets de l’intelligence artificielle générative sur le marché de l’emploi

Jonathan S. Hartley, Filip Jolevski, Vitor Melo, and Brendan Moore (The Labor Market Effects of Generative Artificial Intelligence, décembre 2024) s’intéressent aux effets de lintelligence artificielle générative (IA générative) sur le marché de lemploi, en particulier ceux des grands modèles de langage (LLM), sur la productivité, les inégalités et la dynamique de l’emploi.

L’émergence de l’intelligence artificielle générative, symbolisée par des outils comme ChatGPT, marque une rupture technologique. Dans leur étude, Jonathan Hartley et ses coauteurs s’attachent à quantifier les usages réels de cette technologie sur le marché du travail américain, en analysant les données d’une enquête nationale inédite menée en décembre 2024. Cette approche empirique leur permet de dépasser les spéculations théoriques pour observer les comportements, les tendances d’adoption, ainsi que les effets concrets sur la productivité, les inégalités de revenus et la nature des emplois.

Le rapport commence par un rappel du contexte économique : depuis une décennie, les débats autour du ralentissement de la productivité alimentent des théories sur l’épuisement de l’innovation ou la stagnation séculaire. L’IA générative vient raviver l’espoir d’un nouveau cycle de croissance, à condition toutefois de savoir si elle agit comme un complément (augmentant les compétences des travailleurs) ou comme un substitut (rendant certains postes obsolètes). Cette distinction est essentielle : dans le premier cas, la technologie accroît les salaires et la valeur ajoutée des individus ; dans le second, elle les remplace à moindre coût.

Les auteurs rappellent que, malgré l’engouement médiatique et une hausse importante de l’investissement dans le secteur (notamment chez OpenAI, Google DeepMind, Anthropic), l’adoption réelle des LLM dans les entreprises reste encore limitée mais croissante. En février 2024, seulement 5,4 % des entreprises américaines déclaraient utiliser des outils d’IA, mais cette proportion augmente rapidement. À l’échelle individuelle, 30,1 % des travailleurs adultes avaient utilisé l’IA générative dans leur travail, dont un tiers l’utilise quotidiennement. Ces chiffres masquent des disparités marquées : l’utilisation est beaucoup plus répandue chez les jeunes actifs, les personnes diplômées de l’enseignement supérieur et les salariés aux revenus élevés. L’IA générative est également concentrée dans certains secteurs : informatique, marketing, services professionnels, mais aussi dans des fonctions transversales comme la rédaction, le service client ou la recherche d’informations.

Dans un second temps, l’étude fait un point sur les travaux existants concernant les effets microéconomiques de l’IA générative sur la productivité. Plusieurs expériences contrôlées révèlent une amélioration significative du rendement des employés utilisant l’IA, notamment dans des tâches de rédaction, de programmation, ou d’assistance administrative. Par exemple, les consultants du Boston Consulting Group utilisant GPT-4 ont accompli leurs tâches plus rapidement et avec une meilleure qualité que leurs collègues non équipés. Des études menées dans des marchés du travail numériques, comme Upwork, montrent des effets ambivalents : les gains sont importants dans les secteurs liés à l’informatique ou à la création graphique, mais les traducteurs, rédacteurs et commerciaux voient leurs revenus diminuer. Cela suggère que l’IA générative remplace certaines tâches cognitives routinières mais renforce les compétences dans les fonctions à forte valeur ajoutée.

Les auteurs étendent ensuite leur réflexion au plan macroéconomique. Bien que les premières estimations restent spéculatives, des travaux récents estiment que l’IA générative pourrait augmenter le PIB mondial de 7 % dans les dix prochaines années. Cela équivaudrait à plusieurs centaines de millions d’emplois potentiellement affectés, positivement ou négativement. L’impact dépendra de la vitesse d’adoption, de la capacité des systèmes éducatifs à adapter les compétences et des politiques publiques mises en œuvre pour accompagner les transitions.

Une des contributions originales de l’étude est l’analyse fine des résultats de leur propre enquête. Les données révèlent que l’utilisation de l’IA générative s’intensifie à mesure que le revenu augmente. En dessous de 50’000 USD annuels, seuls 20 % des individus l’utilisent au travail. Cette proportion grimpe à 50 % chez les salariés gagnant plus de 200’000 USD par an. De même, les titulaires de diplômes universitaires sont beaucoup plus susceptibles de recourir à ces outils que ceux sans diplôme. Sur le plan sectoriel, l’adoption varie fortement : les services informatiques, la gestion d’entreprise et l’éducation sont en tête, tandis que les secteurs primaires (agriculture, exploitation minière), ainsi que les fonctions publiques, montrent une faible adoption.

L’étude examine également l’usage « intensif » de l’IA : environ un tiers des utilisateurs déclarent s’en servir tous les jours ouvrables, mais en réalité, le temps hebdomadaire cumulé reste modeste, autour de 15 heures en moyenne. Cela suggère une utilisation ponctuelle, ciblée, souvent dans des moments précis du processus de travail. En revanche, l’impact sur la productivité est considérable. Les répondants estiment qu’une tâche nécessitant 90 minutes sans IA peut être réduite à 30 minutes avec l’aide d’un outil génératif, triplant ainsi l’efficacité. Toutefois, ces gains sont très dépendants de la nature des tâches. Seuls 16 % des utilisateurs déclarent que l’IA a réalisé la tâche à leur place ; dans la majorité des cas, elle est utilisée comme un outil d’assistance.

Le rapport s’attarde aussi sur un aspect souvent négligé : l’usage de l’IA par les demandeurs d’emploi. Plus de la moitié des chômeurs ayant utilisé l’IA déclarent s’en être servis pour rédiger des lettres de motivation, adapter leur CV, ou chercher des offres. Cette donnée met en lumière un usage stratégique de ces outils en dehors du cadre strictement professionnel, ce qui soulève des questions importantes pour les politiques actives du marché du travail.

Enfin, les auteurs s’interrogent sur l’effet différencié de l’IA selon les catégories de travailleurs. Ils émettent l’hypothèse suivante : les travailleurs peu qualifiés, facilement remplaçables, seraient les plus exposés aux pertes d’emploi ; les travailleurs très qualifiés bénéficieraient de gains de productivité importants ; les professions intermédiaires nécessitant une interaction physique (par exemple, dans les soins ou la logistique) seraient relativement protégées à court terme. Cette hypothèse est confortée par une relation en U entre les gains d’efficacité et le niveau de revenu : ce sont à la fois les plus pauvres et les plus riches qui bénéficient le plus des gains liés à l’IA.

L’étude conclut en formulant plusieurs pistes de réflexion pour le droit du travail et les politiques publiques. D’une part, il convient de soutenir la recherche ouverte en matière d’IA pour éviter une concentration excessive entre quelques grandes entreprises. D’autre part, les institutions devront réfléchir à l’encadrement juridique de l’usage de ces technologies, tant sur le plan des droits d’auteur (notamment pour les données utilisées à l’entraînement des modèles), que sur celui de la régulation des conditions de travail, de la protection contre le remplacement abusif ou de la formation continue.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle, Non classé | Tagué , , | Laisser un commentaire

L’implication humaine dans les systèmes de modération de contenus en ligne

Emmanuel Vargas Penagos analyse les obligations juridiques découlant du droit de l’Union européenne en matière d’implication humaine dans les systèmes de modération de contenus en ligne (Platforms on the hook? EU and human rights requirements for human involvement in content moderation, Cambridge Forum on AI: Law and Governance (2025), 1, e23, 1–27, doi:10.1017/cfl.2025.3). L’étude se focalise sur l’interaction entre la législation secondaire de l’UE, en particulier le Digital Services Act (DSA), et les garanties offertes par les droits humains, notamment la liberté d’expression. L’auteur adopte une approche structurée, en répondant à quatre questions successives : les raisons de l’implication humaine dans la modération, les différentes formes que peut prendre cette implication, les exigences concrètes du droit de l’UE, et enfin, l’interprétation de ces normes à la lumière des principes issus des droits fondamentaux.

Dans un premier temps, l’article revient sur les raisons qui justifient l’implication humaine dans la modération de contenu. L’automatisation s’est développée comme réponse au volume écrasant d’informations diffusées en ligne, les plateformes ne pouvant matériellement pas assurer une surveillance exclusivement humaine. Toutefois, cette automatisation soulève plusieurs problèmes. D’un point de vue technique, les outils algorithmiques peinent à saisir le contexte, les subtilités linguistiques et culturelles, et s’avèrent peu fiables en cas de décalage entre les données d’entraînement et les contenus réels. D’un point de vue humain, les modérateurs exposés à des contenus traumatisants subissent une charge psychologique importante. Mais au-delà de ces considérations pratiques, des motifs éthiques et juridiques justifient la présence humaine : la nécessité de corriger les biais des systèmes, d’intervenir en cas de dysfonctionnement, d’assurer la responsabilité et la transparence des décisions, de protéger la dignité des personnes, et de permettre une réponse contextuelle aux situations complexes. Ces justifications sont soutenues par plusieurs acteurs internationaux qui insistent sur la nécessité de prévoir des mécanismes de révision humaine des décisions automatisées pour garantir les droits fondamentaux.

La deuxième partie de l’article explore les formes que peut prendre l’implication humaine dans les systèmes de modération. L’auteur distingue trois grandes catégories : l’intervention humaine à chaque étape de la décision (human-in-the-loop), la supervision humaine avec faculté d’arrêt (human-on-the-loop), et enfin une gouvernance humaine globale sur l’ensemble du processus (human-in-command). Ces catégories s’inscrivent dans des structures de modération très variées selon les plateformes. Certaines combinent des outils de détection automatisée avec des modérateurs spécialisés et des voies de recours internes et externes. D’autres reposent davantage sur des modérateurs bénévoles assistés par des outils simples. L’article souligne également que l’implication humaine peut intervenir à différents stades du cycle de modération : au moment de la conception des outils (formation et ajustement des algorithmes), dans la détection initiale, dans la prise de décision, dans l’examen des recours, ou encore dans le retour d’expérience servant à améliorer les modèles. Cette diversité rend difficile toute tentative d’uniformisation, et appelle une approche différenciée selon le contexte.

La troisième partie de l’étude expose les exigences concrètes du droit européen, en particulier celles issues du RGPD, du DSA et de législations sectorielles. L’article 22 du RGPD interdit en principe les décisions fondées exclusivement sur un traitement automatisé produisant des effets juridiques ou significativement similaires, sauf en cas s’exceptions prévues par le règlement et si des garanties appropriées sont prévues. Cette disposition s’applique aux décisions de modération de contenu, dans la mesure où celles-ci affectent les droits contractuels des utilisateurs ou la visibilité de leurs publications. Le DSA ne proscrit pas l’usage d’outils automatisés mais impose une série d’obligations encadrant leur utilisation : obligation de transparence, de diligence, d’objectivité et de non-discrimination dans la prise de décision, ainsi que la mise en place d’un mécanisme de réclamation interne non entièrement automatisé. L’intervention humaine est explicitement requise dans ce mécanisme de recours, qui doit être supervisé par un personnel qualifié. En parallèle, des instruments spécifiques viennent compléter ce cadre général. La directive sur le droit d’auteur impose une revue humaine des décisions de retrait de contenu fondées sur les droits d’auteur. Le règlement TERREG, en matière de lutte contre le terrorisme, exige que tout recours à des outils automatisés soit assorti de garanties adéquates, notamment une supervision humaine. Quant au European Media Freedom Act, il impose des garanties renforcées pour les contenus issus de médias professionnels, en prévoyant un droit de réponse préalable et un traitement prioritaire des recours, ce qui suppose implicitement une implication humaine qualifiée.

Enfin, l’auteur propose une lecture de ces exigences à la lumière des droits fondamentaux, notamment de l’article 10 CEDH relatif à la liberté d’expression. Le DSA s’inscrit dans une volonté de créer un environnement numérique sûr, prévisible et respectueux des droits. L’implication humaine est ici conçue comme une garantie procédurale essentielle à cet objectif. Cette garantie ne saurait se limiter à une formalité ou à un contrôle symbolique : elle doit se traduire par une organisation concrète des ressources humaines, tant en termes de nombre que de compétence et d’autorité décisionnelle. Trois principes guident cette approche.

Le premier est celui de la diligence. La mise en œuvre des mécanismes de modération doit répondre à un standard de prudence et de professionnalisme adapté à la taille et aux capacités de la plateforme. Cela implique un investissement proportionné dans la formation des modérateurs et dans l’amélioration continue des outils automatisés. Le deuxième principe est celui d’objectivité et de non-discrimination. Les décisions doivent être fondées sur des critères clairs, cohérents et appliqués de manière équitable, sans reproduire ou accentuer les biais sociaux ou culturels. L’intervention humaine est ici essentielle pour contextualiser les cas limites et garantir un traitement équitable. Enfin, le principe de responsabilité suppose que les décisions puissent être justifiées, contestées et révisées par un personnel qualifié, en dehors des seules procédures algorithmiques. L’implication humaine devient ainsi un vecteur de transparence, de redevabilité et de correction des erreurs systémiques.

En conclusion, l’article met en évidence que le droit européen n’impose pas une présence humaine constante dans tous les actes de modération, mais requiert que celle-ci soit organisée de manière ciblée, cohérente et juridiquement encadrée. Cette implication humaine doit être conçue non comme un simple garde-fou symbolique, mais comme un pilier essentiel de la protection des droits fondamentaux dans l’environnement numérique. Elle appelle à une gouvernance renouvelée de la modération, combinant efficacité technologique et garanties procédurales substantielles.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , , , | Laisser un commentaire

Formation des employés à l’intelligence artificielle (IA): obligation, contenu, destinataires

L’art. 4 du « Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) prévoit que les « (…) fournisseurs et les déployeurs de systèmes d’IA prennent des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l’IA pour leur personnel et les autres personnes s’occupant du fonctionnement et de l’utilisation des systèmes d’IA pour leur compte, en prenant en considération leurs connaissances techniques, leur expérience, leur éducation et leur formation, ainsi que le contexte dans lequel les systèmes d’IA sont destinés à être utilisés, et en tenant compte des personnes ou des groupes de personnes à l’égard desquels les systèmes d’IA sont destinés à être utilisés. »

La Commission a publié un Q&A qui donne des précisions sur le cercle des personnes concernées, le contenu des formations, etc. :

Bien évidemment, la Suisse n’est pas soumise au Règlement sur l’intelligence artificielle, et n’entendra pas l’être à l’avenir, mais ce document donne des indices et des clés pour mettre en œuvre la formation des employés à l’IA, formation dont l’obligation découle déjà en droit suisse du droit de la protection des données et du pouvoir de direction de l’employeur.

Me Philippe Ehrenström, avocat, LLM

Publié dans intelligence artificielle | Tagué , , , , , , , | Laisser un commentaire

Utilisation de l’intelligence artificielle par des avocats : informer les Confrères et le juge ?

Les cas d’hallucinations dans des écritures produites en justice sont légion aux Etats-Unis depuis Mata v. Avianca, Inc., No. 1:2022cv01461 – Document 54 (S.D.N.Y. 2023). Ce qui est intéressant dans Lacey v. State Farm (C.D. Cal., mai 2025) (Case No. 24-5205 FMO (MAAx)) (https://digitalcommons.law.scu.edu/cgi/viewcontent.cgi?article=3920&context=historical), c’est que le dossier implique deux Etudes, et que la décision traite plus particulièrement du devoir d’information quant à l’utilisation de l’IA envers les Confrères et le juge.

Dans une affaire civile opposant une ancienne magistrate californienne à sa compagnie d’assurance, un juge fédéral américain, désigné comme « Special Master », avait été chargé de superviser un différend relatif à la communication de documents confidentiels. À cette occasion, la demanderesse a déposé un mémoire destiné à convaincre le juge d’imposer la divulgation de certains échanges internes à l’assureur. Ce qui aurait pu être un épisode technique de procédure civile est devenu un cas d’école en matière d’usage de l’intelligence artificielle dans les pratiques judiciaires.

Très vite après réception du mémoire, le juge a constaté que plusieurs références à des arrêts judiciaires paraissaient douteuses, voire invérifiables. Il a entrepris de rechercher lui-même les décisions citées, sans succès. Alerté, il a demandé des explications aux avocats. Ceux-ci ont alors retiré certaines citations erronées et transmis une nouvelle version du mémoire, tout en restant silencieux sur la raison de ces erreurs.

Ce n’est que plus tard, dans le cadre d’une procédure formelle sur d’éventuelles sanctions, que la vérité a été établie : un avocat avait utilisé des outils d’intelligence artificielle pour produire un plan juridique initial, une sorte de « brouillon » de l’écriture. Ce plan contenait des résumés d’arrêts et des citations inventées ou inexactes, ce que l’avocat lui-même n’avait pas identifié comme tel. Il avait transmis ce plan tel quel à ses collègues d’un autre cabinet, sans leur préciser que l’origine des contenus était une IA. Ces derniers ont ensuite intégré des éléments du plan dans le mémoire final sans effectuer de vérifications.

Le juge a été clair : ce genre de pratique n’est pas acceptable. Selon lui, les outils d’IA actuels ne permettent pas de s’y fier aveuglément. Il n’est pas encore admissible de leur déléguer des tâches telles que la recherche ou la rédaction juridique sans validation humaine. Le problème n’était pas tant l’usage de l’IA en soi, que l’opacité entourant son emploi. Le juge a estimé que la combinaison de l’utilisation cachée d’un outil génératif, de l’absence de relecture rigoureuse et de la réponse trompeuse donnée lorsqu’il a relevé les erreurs, constituait un comportement assimilable à de la mauvaise foi.

Il a donc annulé purement et simplement le mémoire fautif. En conséquence, la demanderesse a perdu toute chance d’obtenir les documents qu’elle demandait. Pour renforcer l’effet dissuasif, le juge a ordonné aux deux cabinets d’avocats concernés de verser plus de trente mille dollars à la défense. Il a toutefois refusé de sanctionner individuellement les avocats, considérant que les fautes étaient collectives et qu’ils avaient fait preuve de remords sincères. La cliente, elle, n’a pas été rendue responsable.

Ce jugement a surtout mis en lumière une exigence croissante : la transparence dans l’usage de l’intelligence artificielle en contexte judiciaire. Le juge a rappelé qu’un avocat ne peut pas, même involontairement, tromper le tribunal en introduisant des éléments fictifs issus d’une IA sans le dire. Le devoir d’information ne concerne pas uniquement le juge. Il s’impose aussi entre avocats. Celui qui reçoit un document doit pouvoir savoir si l’analyse vient d’un juriste ou d’une machine. Le silence sur cette question expose non seulement à des sanctions disciplinaires, mais aussi à des conséquences concrètes pour le client.

Autrement dit, cette décision ne punit pas un avocat pour avoir utilisé une technologie, mais pour ne pas avoir dit qu’il l’avait fait, et pour avoir laissé d’autres en faire usage sans leur en donner les clés de lecture.

Me Philippe Ehrenström, avocat, LLM

Publié dans Avocats (règles professionnelles), intelligence artificielle | Tagué , , , | Laisser un commentaire

Les abeilles sont-elles des citoyennes comme les autres ?

Je vous avais déjà parlé ici de Nonhuman Rights Project Inc. v./ Cheyenne Mountain Zoological Society and Bob Chastain, Case no.24SA21, dans lequel de sympathiques éléphants plaidaient l’habeas corpus pour obtenir leur libération : https://droitdutravailensuisse.com/2025/01/23/lelephant-est-il-un-justiciable-comme-les-autres/.

Pure fantaisie anglo-saxonne ? Pas vraiment à en juger par le dossier des abeilles zurichoises :

Le 22 septembre 2024, la population suisse rejette à près de 63 % l’initiative populaire fédérale « Pour l’avenir de notre nature et de notre paysage » (dite « Initiative biodiversité »). À la suite de ce résultat, une citoyenne étrangère domiciliée à Zurich, B.A., et sa fille mineure A.A., déposent un recours auprès du Conseil d’État zurichois. Elles désignent également comme co-recourantes plusieurs espèces d’abeilles sauvages, appartenant à diverses familles (Seiden-, Sand-, Furchen-, Schmal-, Sägehorn-, Hosen-, Blattschneider-, Mörtel- et Echten Bienen), explicitement décrites comme « domiciliées en Suisse ». Le cœur de leur revendication repose sur la reconnaissance du droit de vote en matière environnementale pour les enfants et les abeilles, la nullité du scrutin du 22 septembre 2024 et l’organisation d’un nouveau vote intégrant ces nouveaux sujets de droit présumés.

Le Conseil d’État zurichois rejette la réclamation de la fille A.A. au motif de son absence de majorité et refuse d’entrer en matière sur la réclamation de la mère, faute de citoyenneté suisse. Il ne se prononce pas sur le fond des autres griefs, considérant notamment que la requête en lien avec les votations communales de Zurich ne relève pas de sa compétence.

Les recourantes saisissent alors le Tribunal fédéral en déposant un recours en matière de droit public, reprenant leurs demandes initiales, notamment l’octroi du droit de vote aux enfants et aux abeilles dans les questions environnementales. Le Tribunal fédéral commence par analyser la recevabilité du recours. Conformément à l’article 136 alinéa 1 de la Constitution fédérale (Cst.), les droits politiques au niveau fédéral sont réservés aux citoyens et citoyennes suisses âgés d’au moins 18 ans, non frappés d’incapacité. A.A., mineure au moment des faits, est donc en principe exclue du droit de vote. Toutefois, comme elle soutient qu’elle aurait dû pouvoir voter, le Tribunal fait preuve d’une certaine souplesse procédurale et entre à titre exceptionnel en matière. Il rejette néanmoins son recours au fond : la condition d’âge est une règle claire du droit positif, et l’aptitude au discernement, même revendiquée dans le domaine environnemental, ne saurait s’y substituer. Aucune disposition du droit fédéral ou international invoqué ne permet d’en déduire une dérogation.

S’agissant de la mère, le Tribunal constate qu’elle est majeure mais dépourvue de la nationalité suisse. Elle n’allègue pas que ce statut lui aurait été refusé à tort ni ne conteste son inéligibilité au droit de vote fédéral. Dès lors, il n’y a pas lieu d’entrer en matière sur ses griefs. Le Tribunal en conclut que ni la mère ni la fille ne sont recevables à déposer une plainte en matière d’abstention ou d’irrégularité du scrutin au sens des dispositions du droit fédéral.

Le point le plus insolite du recours réside toutefois dans la prétention à reconnaître aux abeilles sauvages un droit de vote dans les affaires environnementales. Le Tribunal fédéral se penche expressément sur cette partie du recours. Il rappelle que les animaux ne sont pas des sujets de droits. Cela signifie qu’ils ne peuvent être porteurs de droits subjectifs, donc qu’ils ne sont ni titulaires de droits fondamentaux, ni capables de faire valoir des prétentions juridiques en leur propre nom. Les abeilles, aussi importantes soient-elles pour la biodiversité ou l’écosystème, n’ont donc pas la qualité de sujet de droit politique. Cette position est cohérente avec la doctrine dominante et l’état actuel du droit suisse, qui reconnaît une protection accrue des animaux (notamment dans le cadre de la législation sur la protection des animaux), mais ne leur confère aucun statut de sujet de droit au sens propre. Le Tribunal souligne que les abeilles ne peuvent être porteuses ni d’un droit de recours, ni d’un droit de vote, ni d’aucune autre prérogative juridique permettant de participer aux processus démocratiques.

En outre, les recourantes sollicitent divers actes de procédure accessoires, tels que la désignation de sachants en environnement, la mise en place d’un échange d’écritures ou encore l’usage d’un langage « interspécifiquement inclusif et libéré de toute forme de spécisme ». Le Tribunal fédéral rejette ces demandes, soit comme irrecevables, soit comme manifestement dénuées de pertinence juridique. Il indique par ailleurs qu’il se réserve à l’avenir le droit de ne plus entrer en matière sur des recours de cette nature, qu’il pourrait classer d’emblée sans suite, en vertu de son pouvoir de filtrage.

Ainsi, par cet arrêt, le Tribunal fédéral affirme notamment de manière claire et catégorique les limites du champ d’application des droits politiques dans l’ordre juridique suisse. Il rappelle que seuls les êtres humains, citoyens suisses, majeurs et capables, peuvent être sujets de ces droits. La demande de conférer des droits politiques à des mineurs ou à des animaux, si elle soulève un débat de société légitime sur la représentation des intérêts des générations futures et de la nature, relève à ce stade d’une démarche militante sans ancrage dans le droit positif. Le droit fondamental à un environnement sain, bien que de plus en plus évoqué dans la doctrine et certains forums politiques, ne saurait encore fonder une transformation du corps électoral sans révision constitutionnelle explicite.

Sources : TF 1C_607/2024 du 16 avril 2025 – http://relevancy.bger.ch/php/aza/http/index.php?lang=de&type=show_document&highlight_docid=aza://16-04-2025-1C_607-2024&print

Commentaire : Camille de Salis, L’absence de droit de vote des mineurs et des abeilles, in: https://lawinside.ch/1577/

Me Philippe Ehrenström, avocat, LLM

Publié dans Animaux, Libertés | Tagué , , , | Laisser un commentaire

L’envoi de données médicales de salariés sur une adresse email partagée

La décision 10112709 prise le 30 janvier 2025 par le Garante per la protezione dei dati personali concerne un incident de communication de données sensibles au sein d’un hôpital public, plus précisément le partage involontaire d’informations sur le statut vaccinal de deux employés sur une adresse email partagée (décision : https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/10112709).

Les faits à l’origine de cette affaire sont les suivants :

Une salariée d’un établissement hospitalier public situé à Turin a saisi le Garante d’une plainte après avoir reçu, sur la boîte mail partagée de son service, un courriel émis par le service du personnel. Ce message contenait des informations sur sa propre situation vaccinale (COVID) et sur celle d’un collègue non vacciné, suspendu pour cette raison. Cette boîte mail, utilisée par plusieurs membres du service du délégué à la protection des données (DPO), permettait donc à chacun d’eux de consulter le contenu du message et ainsi de connaître les données sensibles de leurs collègues. L’employée a considéré que cela constituait une communication illicite de données personnelles.

Le Garante a étudié attentivement le déroulement des faits, les textes applicables, et les arguments de défense présentés par l’établissement concerné. Son raisonnement s’appuie en premier lieu sur les règles générales de protection des données prévues par le Règlement général européen sur la protection des données (RGPD), ainsi que par le Code italien de la protection des données. Ces textes imposent que les données à caractère personnel soient traitées uniquement lorsque cela est nécessaire et fondé sur une base légale claire. Le traitement des données sensibles, telles que les données de santé, doit faire l’objet de précautions supplémentaires, tant sur le fond (motif légitime et prévu par la loi) que sur la forme (modalités de traitement, personnes autorisées, sécurité).

Dans le cas présent, le Garante a considéré que le choix d’utiliser une adresse e-mail partagée, même pour des raisons pratiques ou d’urgence, ne répondait pas aux exigences de la réglementation. Le fait que les collègues aient pu prendre connaissance de leurs situations vaccinales respectives a été jugé inapproprié, car ces informations ne devaient être accessibles que par les personnes strictement habilitées à en connaître dans le cadre de leurs fonctions. La règle est claire : même au sein d’une organisation, des informations sensibles sur un salarié ne peuvent être partagées qu’avec les agents expressément autorisés, en lien direct avec le traitement concerné. La communication en cause, bien qu’interne, a été considérée comme une atteinte à la vie privée des deux intéressés.

Pour sa défense, l’hôpital a fait valoir plusieurs éléments. Il a notamment expliqué qu’il s’agissait d’un cas isolé, survenu en période de forte pression due à la pandémie de Covid-19, et que l’envoi de la communication visait à éviter une confusion liée à une homonymie entre les adresses e-mail des salariés. Il a également souligné que le contenu du message était bref, qu’il ne mentionnait pas expressément le Covid ni ne détaillait les raisons médicales de la suspension, et que l’erreur avait été commise de bonne foi, dans un contexte d’urgence, en soirée, à la veille des congés de Noël. Par ailleurs, des mesures correctrices ont été prises après coup, comme la création de nouvelles adresses électroniques « alias » plus sécurisées, et l’introduction de procédures internes renforcées.

Le Garante a pris en compte ces éléments d’atténuation. Il a reconnu que l’établissement avait collaboré loyalement durant l’instruction, et que l’incident était ponctuel. Néanmoins, il a estimé que ces arguments ne suffisaient pas à écarter la qualification de violation des règles de protection des données. En effet, selon lui, l’information aurait pu – et dû – être transmise par un autre canal, confidentiel, sans exposer deux salariés à une divulgation mutuelle de leurs informations médicales. Le Garante a rappelé à cette occasion que, depuis 2007, les lignes directrices en matière de protection des données des salariés précisent que les employeurs doivent empêcher que des informations sensibles circulent de manière non contrôlée, même à l’intérieur de l’administration.

Le Garante a ainsi conclu à l’existence d’un traitement illicite des données, en violation notamment des articles 5, 6 et 9 du RGPD. L’établissement, bien que dans son rôle de vérification des obligations vaccinales imposées par la loi en période de pandémie, aurait dû mettre en place des mesures techniques et organisationnelles appropriées pour éviter cette communication indue. À cet égard, la responsabilité du choix du canal de communication incombe clairement au responsable du traitement, c’est-à-dire ici à l’administration hospitalière.

La sanction prononcée est une amende administrative de 6.000 euros. Ce montant tient compte de plusieurs facteurs, notamment la portée limitée de la violation (deux personnes concernées), l’absence d’intention malveillante, le contexte exceptionnel lié à la gestion de l’urgence sanitaire, la coopération de l’établissement pendant l’instruction, mais aussi l’existence d’antécédents en matière de non-conformité aux règles de protection des données, même s’ils concernaient d’autres domaines. La décision prévoit également que l’ordonnance soit publiée sur le site du Garante, en raison de la sensibilité des données en cause et de l’intérêt à sensibiliser les organismes publics sur ces pratiques.

En résumé, cette affaire met en lumière la vigilance que doivent observer les employeurs – publics comme privés – dans le traitement des données personnelles de leurs salariés, surtout lorsqu’il s’agit d’informations de santé. Elle rappelle que la bonne foi ne suffit pas à exclure la responsabilité juridique d’un traitement mal encadré. L’utilisation d’outils numériques courants, comme les boîtes mail partagées, doit faire l’objet d’une attention rigoureuse, et être accompagnée de procédures strictes pour garantir la confidentialité des données.

Me Philippe Ehrenström, avocat, LLM

Publié dans Protection des données, RGPD | Tagué , , , | Laisser un commentaire