Réguler l’IA : sécurité des produits ou défense des droits fondamentaux dans l’AI Act

Quelques réflexions tirées de M. Almada /G. De Gregorio, The Mixed Nature of the AI Act: Product Safety and Fundamental Rights Regulation (November 19, 2025) (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5770982):

L’article analyse la nature mixte du règlement européen sur l’IA (AI Act), qui poursuit simultanément deux objectifs: d’une part la sécurité des produits, d’autre part la protection des droits fondamentaux et des valeurs démocratiques. Les auteurs montrent que ces deux dimensions sont présentes dès l’origine du projet, mais reposent sur des logiques juridiques différentes qui créent des tensions au moment de l’application concrète du texte.

Ils partent du constat que l’AI Act a été conçu sur le modèle classique du droit européen de la sécurité des produits, comme pour les jouets, dispositifs médicaux ou machines. Dans cette logique, il s’agit d’identifier des risques pour la santé et la sécurité et d’imposer des exigences techniques aux fabricants avant la mise sur le marché, souvent complétées par des normes harmonisées. Or, les systèmes d’IA posent aussi des risques qui excèdent largement les dommages physiques: atteintes au droit à la non-discrimination, à la vie privée, à la participation démocratique, ou encore surveillance de masse. L’AI Act a progressivement intégré ces préoccupations en élargissant son champ au-delà de la seule sécurité matérielle. Mais la grille de lecture reste largement celle du droit des produits, avec une logique de conformité technique difficile à appliquer à des atteintes qui sont souvent contextuelles, diffuses et cumulatives.

Les auteurs reviennent ensuite sur l’historique de la prise en compte des droits fondamentaux dans la genèse de l’AI Act. Contrairement à l’idée parfois avancée selon laquelle ces droits auraient été ajoutés a posteriori, ils montrent qu’ils sont présents dès les premiers travaux. Dans un premier temps, les droits fondamentaux servent surtout de source d’inspiration pour des principes éthiques (transparence, responsabilité, respect de la vie privée). L’approche envisagée est alors plutôt sectorielle: des adaptations ponctuelles de la législation dans des domaines spécifiques, guidées par ces principes.

La proposition de la Commission de 2021 marque un tournant: elle abandonne l’idée d’une mosaïque sectorielle et propose un seul instrument horizontal, calqué sur le «New Legislative Framework» des produits. Cette option a des effets ambivalents. D’un côté, la proposition mentionne abondamment les droits fondamentaux, les utilise pour définir certaines pratiques interdites et pour classer certaines utilisations comme «à haut risque», et insère des exigences de contrôle humain et de transparence en lien avec ces droits. De l’autre, l’outillage juridique reste celui de la sécurité des produits: classification rigide des systèmes (interdits, à haut risque, autres), accent sur des incidents identifiables et mesurables, focalisation sur des dommages individuels plutôt que sur des effets systémiques produits par l’agrégation de nombreuses décisions algorithmiques au fil du temps. Les critiques soulignent que cette transposition risque de réduire les droits fondamentaux à ce qui est «mesurable» dans un incident, en négligeant des dimensions structurelles comme la transformation des rapports de pouvoir ou la normalisation de pratiques intrusives.

Au cours de la procédure législative, ces critiques ont contribué à renforcer la couche «droits fondamentaux» de l’AI Act. Les listes de pratiques interdites et de systèmes à haut risque ont été modifiées, notamment pour intégrer de nouveaux usages jugés dangereux et pour encadrer les modèles d’IA à usage général, en particulier lorsqu’ils créent des risques systémiques. Le législateur a introduit l’obligation, pour certains utilisateurs de systèmes à haut risque, de réaliser une étude d’impact sur les droits fondamentaux avant la première utilisation. Les autorités nationales chargées des droits fondamentaux se voient reconnaître des compétences dans la mise en œuvre de l’Act. Un droit à une explication des décisions impliquant des systèmes à haut risque est également ajouté. Toutefois, certaines évolutions vont aussi dans le sens d’un assouplissement, comme la possibilité pour des fournisseurs d’exclure certains systèmes de la catégorie à haut risque sur la base de leur auto-évaluation.

Sur cette base, les auteurs examinent la «dimension constitutionnelle» de l’AI Act. Dès son premier considérant, le règlement se réfère aux valeurs de l’article 2 TUE: dignité humaine, état de droit, démocratie, égalité, droits des minorités. Il s’inscrit ainsi dans la lignée d’autres textes récents comme le RGPD ou le Digital Services Act, qui assument un rôle de protection de l’ordre constitutionnel européen dans l’environnement numérique. Mais, dans le détail, la structure de l’AI Act reste dominée par une approche graduée des risques inspirée du droit des produits: la plupart des systèmes ne sont soumis à aucune exigence spécifique, une catégorie étroite est soumise à des obligations harmonisées, et quelques pratiques sont purement interdites.

Pour certaines utilisations qui affectent directement les droits fondamentaux et les valeurs démocratiques, l’Act adopte néanmoins une approche plus substantielle: ainsi de l’encadrement très strict, voire de l’interdiction, de certaines formes de reconnaissance biométrique en temps réel dans l’espace public ou de systèmes de notation sociale. Ces cas montrent que la classification du risque ne repose pas seulement sur la dangerosité technique du produit, mais aussi sur la gravité des enjeux constitutionnels. Cela illustre bien la cohabitation de deux logiques: d’un côté, une grille de lecture axée sur des seuils techniques de sécurité; de l’autre, la prise en compte de valeurs plus abstraites et plus difficiles à traduire en normes techniques, comme la dignité ou l’égalité.

Les auteurs insistent sur la difficulté de traduire des droits fondamentaux en exigences techniques standardisées. Par exemple, l’exigence de «justice» ou de «non-discrimination» ne se laisse pas réduire à un indicateur quantitatif unique de «fairness» dans un modèle. La recherche montre au contraire la pluralité des notions de fairness et le fait qu’on ne peut pas toutes les satisfaire simultanément. Si l’on se contente de ce qui est aisément codable, on risque de protéger seulement une partie des valeurs en jeu et de laisser de côté des dimensions importantes mais moins «computables». De plus, l’ancrage de l’AI Act dans la compétence de marché intérieur implique que la protection des droits fondamentaux est filtrée par des objectifs d’harmonisation et de bon fonctionnement du marché, ce qui tend à privilégier une lecture centrée sur les consommateurs et la concurrence.

L’article montre aussi que, dans la mise en œuvre concrète, une part significative de la traduction des valeurs européennes se joue à travers des instruments de conformité élaborés avec ou par des acteurs privés: normes techniques harmonisées, codes de conduite et codes de pratique, notamment pour les modèles d’usage général. Même sans créer une présomption formelle de conformité, ces instruments orientent l’interprétation du règlement et façonnent en pratique ce que signifie «protéger les droits fondamentaux» dans le contexte de l’IA. La forte présence d’industriels dans ces processus soulève des questions de légitimité: des choix normatifs importants risquent d’être effectués par des acteurs privés qui ne sont ni élus ni soumis aux mêmes exigences de responsabilité que les institutions publiques.

À cette complexité s’ajoute l’hétérogénéité prévisible des approches nationales. Les autorités des États membres peuvent interpréter différemment l’équilibre entre sécurité des produits et droits fondamentaux, certains mettant davantage l’accent sur la conformité technique et l’intégration du marché, d’autres sur la protection des individus. Malgré la création d’instances européennes de coordination, ce risque de divergences peut fragiliser l’objectif d’un niveau élevé et uniforme de protection dans l’Union.

Les auteurs analysent ensuite plus en détail l’approche par les risques, commune à l’AI Act, au RGPD et au DSA. Cette approche marque un déplacement par rapport à une logique purement fondée sur des droits subjectifs, vers un modèle où le législateur définit des catégories de risques et délègue aux acteurs privés une partie de l’évaluation et de la gestion de ces risques, tout en gardant une fonction de supervision. Le risque devient une sorte de proxy pour le travail de pondération d’intérêts et de valeurs. Dans l’AI Act, cette logique est clairement visible: interdiction pour les usages jugés «à risque inacceptable», obligations renforcées pour les systèmes à haut risque, obligations plus légères ou volontaires pour les usages considérés comme limités.

Dans ce cadre, l’évaluation d’impact sur les droits fondamentaux joue un rôle clef pour tenter de réconcilier sécurité des produits et protection des droits. Inspirée de la DPIA du RGPD, la FRIA est un instrument ex ante: certains utilisateurs de systèmes à haut risque doivent identifier et évaluer les risques pour les droits fondamentaux avant la première mise en service, puis suivre ces risques dans la phase de surveillance. En théorie, cela permet une appréciation contextuelle, tenant compte du secteur d’activité, de la population concernée, de l’environnement institutionnel. Mais, dans la pratique, la définition des catégories de risques, la frontière entre ces catégories et leur interprétation laissent une marge d’incertitude importante, susceptible de fragiliser l’objectif de protection substantielle des valeurs européennes.

Dans la dernière grande partie, l’article cherche des pistes pour traiter cette dualité sans remettre en cause l’architecture de base du règlement. Les auteurs identifient d’abord le rôle central des standards techniques. Ils soulignent qu’il faut résister à la tentation des «solutions technologiques» censées «résoudre» les problèmes de droits fondamentaux par de simples ajustements algorithmiques. Certaines exigences peuvent légitimement être traduites en critères techniques (qualité des données, robustesse, sécurité informatique, traçabilité). Mais d’autres aspects – par exemple, la manière dont un système redistribue des chances d’accès à un droit social, ou influence la liberté d’expression – exigent des réponses juridiques, organisationnelles ou politiques, qui ne peuvent pas être réduites à des paramètres d’optimisation. L’enjeu est de délimiter prudemment ce qui peut être confié aux standards techniques, et ce qui doit rester du ressort d’autres instruments normatifs.

Ensuite, les auteurs abordent la question de la participation et de la légitimité. De nombreuses décisions apparemment «techniques» ont en réalité une forte charge normative: choix du but poursuivi par un système d’IA, fixation de seuils de performance jugés «acceptables», conception des mécanismes de supervision humaine. Ces décisions influencent directement l’intensité des atteintes possibles aux droits fondamentaux. Dès lors, leur légitimité suppose non seulement le respect du cadre juridique, mais aussi des procédures qui donnent une place à des perspectives variées, y compris celles des personnes potentiellement affectées. Des dispositifs de participation du public et de la société civile, même imparfaits et difficiles à organiser, peuvent contribuer à rendre visibles certains effets, à éviter une capture complète des processus par les intérêts industriels et à mieux informer le travail de normalisation et de régulation.

Les auteurs mettent également en avant la question des capacités institutionnelles. L’AI Act impose des obligations de formation et de sensibilisation, mais celles-ci doivent s’étendre au-delà des concepteurs de systèmes pour toucher les institutions chargées de l’application et du contrôle. Or, les compétences combinant compréhension technique de l’IA, maîtrise du droit de la sécurité des produits et expertise en droits fondamentaux sont rares. Les autorités nationales et européennes devront investir dans la formation, le recrutement et la coopération pour combler ces lacunes. Les organes créés par l’AI Act au niveau de l’UE sont appelés à jouer un rôle de pôle d’expertise partagé, pour aider les autorités nationales à interpréter les exigences techniques à la lumière des droits fondamentaux et à identifier les cas où d’autres instruments juridiques sont nécessaires.

Enfin, l’article traite des questions de compétence et de répartition des rôles entre l’Union et les États membres. Une lecture maximaliste verrait dans l’AI Act un instrument de pleine harmonisation, fermant largement la porte à des interventions nationales spécifiques sur l’IA. Les auteurs montrent au contraire que le texte final a un champ plus limité: il vise les objets techniques (systèmes d’IA, modèles à usage général) et certaines pratiques interdites, mais laisse théoriquement un espace aux législateurs nationaux pour adopter des règles complémentaires sur l’usage de l’IA, pour autant qu’elles ne contredisent pas le cadre européen. Des États pourraient, par exemple, fixer des garanties supplémentaires pour l’usage de l’IA en matière de police, de justice ou d’emploi, sans créer de nouvelles catégories de systèmes interdits ni dérégler la logique de mise sur le marché harmonisée. Cette ouverture permet de concilier l’exigence d’un niveau de protection uniforme avec le principe de subsidiarité et la diversité des traditions constitutionnelles nationales. Elle suppose toutefois un dialogue continu entre institutions européennes et États membres pour éviter que cette marge de manœuvre ne se traduise en fragmentation excessive.

En conclusion, les auteurs insistent sur le fait que l’AI Act doit être compris comme un instrument à la fois de sécurité des produits et de protection des droits fondamentaux. Chercher à le réduire à l’une ou l’autre de ces dimensions ferait perdre de vue les compromis qui ont structuré sa construction et les difficultés concrètes qui en résultent. L’enjeu, pour les autorités et les praticiens, est d’assumer cette dualité: interpréter les obligations techniques à la lumière de la Charte, utiliser les instruments d’évaluation des risques pour rendre visibles les enjeux constitutionnels, recourir à d’autres sources du droit lorsque les standards techniques atteignent leurs limites, et exploiter avec prudence la marge nationale laissée par le règlement pour compléter, sans la contredire, la protection offerte par le droit de l’Union.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans droit européen, intelligence artificielle | Tagué , , , | Laisser un commentaire

Remboursement forfaitaire des frais professionnels ou salaire déguisé ?

L’appelante [l’employeuse] fait grief au premier juge d’avoir retenu que les frais forfaitaires constituaient un élément de salaire de l’intimé [le salarié].

A teneur de l’article 322 al. 1 CO, l’employeur paie au travailleur le salaire convenu, usuel ou fixé par un contrat-type de travail ou par une convention collective. En droit suisse, la rémunération du travailleur obéit au principe de la liberté contractuelle : le salaire convenu fait foi.

Selon l’article 327a al. 1 CO, l’employeur rembourse au travailleur tous les frais imposés par l’exécution du travail et, lorsque le travailleur est occupé en dehors de son lieu de travail, les dépenses nécessaires pour son entretien.

Un accord écrit, un contrat-type ou une convention collective peuvent autoriser les parties à remplacer le remboursement des frais effectifs par une indemnisation forfaitaire ou périodique, à condition qu’elle couvre au moins tous les frais effectivement encourus par le travailleur (art. 327a al. 2 CO) (ATF 131 III 439 consid. 4, trad. in JdT 2006 I p. 35, cité in Witzig, Droit du travail, 2018, p. 525).

Le remboursement des frais imposés par l’exécution du travail ne fait normalement pas partie de la rémunération du travailleur. Lorsque le remboursement des frais se fait sous forme d’indemnité forfaitaire, il peut cacher un « salaire déguisé ». Connaître la véritable rémunération du travailleur implique donc d’interpréter la volonté des parties (arrêt de la Chambre d’appel des prud’hommes du canton de Genève CAPH/128/2013 du 20 décembre 2013 consid. 3.1).

Constitue un salaire déguisé, soumis aux assurances sociales, l’indemnité forfaitaire que verse l’employeur au travailleur en application de l’article 327a CO, lorsque cette indemnité ne tend pas à défrayer l’intéressé de frais effectivement encourus par ses soins (arrêt du Tribunal fédéral 4C_426/2005 du 28 février 2006 consid. 4; Danthe, Commentaire du contrat de travail, 2013, n. 24 ad art. 327a).

L’indemnité forfaitaire qualifiée de salaire déguisé devra en outre être versée en cas d’empêchement de travailler, de vacances ou de libération de l’obligation de travailler pendant le délai de congé (Dunand/Mahon, Commentaire du contrat de travail, 2013, n. 24 ad art. 327a CO; Witzig, CR CO I, 2021, n. 8 ad art. 327a CO).

Dans le présent cas, depuis 2016 à tout le moins, l’intimé s’est vu allouer, en sus de son salaire et de ses commissions, une indemnité forfaitaire mensuelle de 900 fr. dénommée « frais de représentation admin. ». Cette indemnité a été versée chaque mois, à l’exception de la période de février à août 2020.

Il est constant que l’appelante remboursait les frais effectifs de l’intimé sur présentation de justificatifs, en plus de l’indemnité forfaitaire de 900 fr. précitée. Cette indemnité n’avait dès lors pas pour vocation de couvrir des frais effectivement encourus par l’intimé.

L’argumentation de l’appelante en lien avec le règlement de l’administration fiscale reposant sur une pièce nouvelle – irrecevable – ne sera pas examinée. En tout état, même si elle avait été recevable, elle ne modifierait pas cette appréciation. En effet, les frais forfaitaires admis par ladite administration fiscale pouvant être alloués à un directeur, de 900 fr. par mois, sont destinés à couvrir les dépenses de celui-ci dans le cadre de son activité professionnelle. Or, comme il vient d’être vu, l’appelante a versé à l’intimé, chaque mois, cette indemnité (hormis de février à juillet 2020), sans déduire les frais justifiés par pièce par l’intimé. Ceux-ci étaient remboursés en sus. L’appelante a d’ailleurs également versé cette indemnité forfaitaire en 2019, alors que l’intimé était en incapacité de travail depuis la fin du mois de mai 2019.

C’est dès lors à bon droit que le Tribunal a considéré qu’il s’agissait d’un élément du salaire. Cette indemnité doit dès lors être versée à l’intimé durant son incapacité de travail.

(Arrêt de la Chambre des prud’hommes de la Cour de justice [GE] ACJC/1529/2025 du 27.10.2025, consid. 4)

Me Philippe Ehrenström, avocat, LLM

Publié dans Frais professionnels, Salaire | Tagué , , , , | Laisser un commentaire

IA et droit: pour une spécialisation des entités non humaines

Dans la marée toujours montante des publications sur l’IA, quelques réflexions tirées de E.-M.MAHMDI/L.-N.HOANG/M.TIGHANIMINE, A Case for Specialisation in Non-Human Entities, arXiv :2503.04742v2 [cs.CY] 21 août 2025 (https://arxiv.org/abs/2503.04742), qui est une des contributions les plus intéressantes de 2025 :

L’article est un plaidoyer pour la spécialisation des entités non humaines, qu’il s’agisse d’algorithmes ou d’organisations, et pour une forme de «spécification» juridique et technique plus fine des tâches qui leur sont confiées.

Les auteurs rappellent d’abord que, sur le plan théorique, toute capacité générale n’est qu’une composition d’un grand nombre d’opérations spécialisées, comme l’avaient déjà formalisé Church et Turing. Mais, dans la pratique, cette granularité est masquée: l’utilisateur final interagit avec un système présenté comme «général» – un grand modèle de langage, une suite intégrée – sans voir la multitude de « briques spécialisées » qui le composent. Les développeurs eux-mêmes souffrent de cette «cécité de la spécialisation» lorsqu’ils s’appuient sur des bibliothèques très générales, par exemple un LLM, plutôt que sur des modules plus ciblés (un solveur d’optimisation, une bibliothèque de chiffrement). Ils gagnent en puissance apparente, mais perdent en compréhension réelle de ce que fait le système, de ses limites d’usage et de ses risques. Le texte insiste sur cette idée: la collaboration et la complexité imposent une forme de cécité, mais l’enjeu est d’organiser cette collaboration de manière à ce qu’elle devienne un atout plutôt qu’un risque, ce qui suppose de bien définir les spécialisations.

Vient ensuite un travail de clarification conceptuelle autour de la «généralité». Du point de vue de l’AI Act, un système est général s’il est conçu pour de nombreux cas d’usage. Mais cette notion est trompeuse: un même modèle de langue utilisé pour traduire des messages sur un réseau social peut être présenté comme outil de «traduction», comme élément d’une plateforme de «réseaux sociaux» ou comme simple moteur de prédiction du prochain token. Plus on définit finement la tâche, moins le système paraît «général». D’autres acteurs adoptent une définition financière: est «AGI» ce qui peut générer des centaines de milliards de revenus, ce qui met alors sur le même plan, voire au-dessus, des systèmes comme des algorithmes de trading  ou de publicité ciblée.

Les auteurs proposent donc une définition plus opérationnelle: regarder le nombre de tâches distinctes qu’un système met à disposition de l’extérieur, par exemple à travers ses API. Un système est «général» si le catalogue de tâches accessibles à des utilisateurs ou à des agents est large et varié; un système est «spécialisé» s’il offre peu de services, bien définis, même si, à l’intérieur, il peut être extrêmement complexe. Dans ce cadre, la montée des «AI agents» et du Model Context Protocol, qui autorisent un modèle à appeler toute une série d’outils via API, représente précisément une tendance à donner à un seul agent une très grande latitude d’action, que les auteurs jugent préoccupante.

Avant de défendre la spécialisation, l’article passe en revue les arguments classiques contre la division du travail et la spécialisation, pour montrer qu’ils sont peu pertinents pour les entités non humaines.

Sur le terrain des sciences sociales du travail, la critique de Taylor et de l’ultra-spécialisation porte sur les effets humains: travail en «miettes», perte de sens, atteintes à la santé physique et psychique, ennui, démotivation. Ces critiques sont décisives pour protéger les travailleurs, mais elles ne s’appliquent pas aux algorithmes. Même si l’on peut débattre de leur statut d’«agents moraux», les auteurs rappellent qu’ils ne sont pas des «patients moraux» que le droit devrait protéger pour leur propre bien-être.

En économie, on invoque souvent les vertus de l’intégration verticale et des effets de réseau pour justifier des plateformes très intégrées: internaliser toute la chaîne de valeur peut réduire certains coûts de transaction, permettre une meilleure coordination des investissements et profiter, comme chez les géants du numérique, de puissants effets de réseau. Mais ces arguments raisonnent du point de vue de l’entreprise intégrée, non de celui de tous les acteurs dépendants de cette infrastructure. Ainsi et par exemple une infrastructure cloud très intégrée peut créer un risque systémique: une intrusion réussie affecte potentiellement toute la base de clients et pas seulement un maillon isolé. À l’échelle d’un État, la volonté de souveraineté numérique peut certes pousser à internaliser davantage, mais pour les autres acteurs qui dépendent de cet écosystème, l’hyper-généralité augmente les risques de dépendance et de concentration de pouvoir.

Un autre argument en faveur de la généralité vient des statistiques et de l’apprentissage automatique. En simplifiant, lorsqu’on estime séparément des paramètres sur plusieurs sous-ensembles de données, il existe souvent un estimateur «global» qui, en agrégeant les données de tous les groupes, obtient une erreur moyenne plus faible sur chacun d’eux. C’est ce qui fonde l’idée que l’on apprend mieux sur «toutes les données du web» plutôt que sur un corpus ciblé. Mais cette vision néglige deux éléments essentiels dans le contexte des IA contemporaines: le coût computationnel et la toxicité potentielle des données. D’une part, un estimateur global peut être trop coûteux ou complexe à mettre en œuvre, ce qui justifie que la science elle-même se soit organisée historiquement en communautés spécialisées. D’autre part, cet argument statistique suppose que toutes les données sont «saines». Avec des données hétérogènes issues du web, se posent des problèmes de vie privée, de dé-anonymisation, de données erronées, biaisées ou malveillantes. La centralisation statistique qui améliore l’erreur moyenne peut, en contrepartie, faciliter des attaques par empoisonnement, des fuites de données et des biais massifs dans les systèmes de recommandation ou de génératifs.

Sur cette base critique, les auteurs développent plusieurs arguments positifs en faveur de la spécialisation des entités non humaines.

Le premier vient de la robustesse et de la sécurité en apprentissage automatique. Plus un modèle est grand, avec un nombre de paramètres élevé, plus il est vulnérable sur plusieurs plans: la protection de la vie privée via des techniques de type «differential privacy» exige d’ajouter du bruit sur (quasi) tous les paramètres, ce qui devient difficile à calibrer à l’échelle des grands modèles; la détection et la suppression de points de données empoisonnées est plus difficile en haute dimension, car les données «honnêtes» sont elles-mêmes très dispersées; l’augmentation de la fenêtre de contexte augmente la surface d’attaque pour des «jailbreaks» et des injections de prompt sophistiquées. En parallèle, la quête de généralité pousse à entraîner ces modèles sur des corpus extrêmement hétérogènes issus de crawls du web, où se mêlent données sensibles et contenus malveillants. Plus la diversité des cas d’usage visés est grande, plus il devient difficile d’identifier et de filtrer ces éléments problématiques. L’article fait le lien avec une littérature croissante qui montre une corrélation directe entre hétérogénéité des données et vulnérabilités adversariales.

Le second argument vient de l’ingénierie des systèmes complexes. Depuis des décennies, la pratique de l’ingénierie logicielle repose sur l’abstraction, la modularisation et la séparation des préoccupations. Découper un système en modules spécialisés permet de développer, tester, auditer, voire démontrer mathématiquement la correction de chaque partie de manière indépendante. Définir clairement ce que chaque module fait – et ce qu’il ne fait pas – permet aussi d’appliquer de manière efficace le principe du «moindre privilège». Si un module est compromis, les dégâts restent circonscrits aux privilèges qui lui ont été accordés. Les auteurs rapprochent cette approche de principes juridiques et politiques bien connus des juristes, comme la séparation des pouvoirs ou le principe de subsidiarité: plutôt que de concentrer tous les pouvoirs dans une entité unique, on répartit les compétences entre entités spécialisées, chacune agissant au niveau le plus pertinent, avec des mécanismes de contrôle croisé. La modularisation permet aussi de créer des redondances interopérables: plusieurs implémentations différentes d’un même module peuvent coexister, ce qui limite le risque de défaillance d’un fournisseur unique et atténue les effets de réseau excessifs typiques des grandes plateformes.

Viennent ensuite des arguments économiques et sociologiques classiques, réinterprétés pour les entités non humaines.

En économie, depuis Adam Smith, la division du travail est associée à des gains de productivité: fragmenter un processus en opérations simples, effectuées par des agents spécialisés, permet d’augmenter la production et de réduire les temps morts. Ricardo, avec la théorie des avantages comparatifs, montre même qu’un agent «moins efficace partout» peut malgré tout contribuer à accroître la production globale s’il se spécialise dans les tâches où son désavantage relatif le plus faible. Ces raisonnements s’appliquent aussi aux algorithmes et organisations: il est plus rationnel, du point de vue collectif, de faire coopérer plusieurs entités spécialisées plutôt que de miser sur un «super-système» qui ferait tout, au prix de risques élevés de défaillance systémique et de verrouillage de marché. Sur le plan sociologique, Durkheim voit dans la division du travail la source de formes nouvelles de solidarité, dites «organiques», fondées sur la différenciation et l’interdépendance des rôles. Transposé au monde numérique, cela plaide pour des «corps intermédiaires» de systèmes et d’organisations spécialisées, capables de définir des standards, de mutualiser des bonnes pratiques et de défendre des intérêts sectoriels face à de très grands acteurs généralistes.

Un exemple historique sert d’avertissement: celui des «company towns» des XIXe–XXe siècles, ces villes-usines où une même entreprise contrôlait l’emploi, le logement, les commerces, les services de santé, parfois l’école et la vie religieuse. Sur le papier, ce modèle généraliste promettait sécurité et commodité; en pratique, il a souffert de nombreux problèmes: inégalités de traitement entre catégories de travailleurs, incapacité à tenir toutes les promesses de service, difficulté de supervision et d’exercice simultané de multiples rôles (employeur, logeur, quasi-État). Sur le plan politique, ce modèle revenait à substituer la loi et les institutions publiques par les pratiques d’une entreprise privée, rompant avec un long processus historique de spécialisation des fonctions (État, communes, professions). Les auteurs y voient un parallèle avec le rêve contemporain de l’«everything app» ou d’une AGI intégrée à tous les niveaux: une concentration de tâches, de pouvoirs et de dépendances qui, historiquement, a montré sa fragilité et sa dangerosité.

Dans une dernière grande étape, l’article lie étroitement spécialisation et «spécification». Spécialiser un système, c’est une chose; encore faut-il pouvoir dire précisément ce pour quoi il est fait, dans quelles conditions il est sûr, et quelles garanties il offre. Un premier niveau est celui de la documentation: notices d’utilisation, fiches de modèles (model cards), fiches de jeux de données (datasheets), qui décrivent objectifs, limites, contextes d’usage autorisés ou déconseillés. Mais la recherche d’une adoption virale et d’une ergonomie maximale pousse à minimiser l’effort demandé à l’utilisateur; très peu de gens lisent la documentation de systèmes comme ChatGPT. Cela favorise les déploiements inappropriés de systèmes généraux dans des contextes pour lesquels ils n’ont ni été conçus ni évalués. Les auteurs rappellent ensuite qu’en génie logiciel, la spécification peut être intégrée à la structure même des programmes grâce aux systèmes de types sophistiqués de langages modernes: un programme ne compile que s’il respecte un certain contrat sur ses entrées et sorties, et ces mêmes types peuvent empêcher des usages incorrects d’une bibliothèque. À un niveau plus avancé, des techniques de «verifiable computing» et de preuves succintes permettent à une machine puissante de prouver à un vérificateur faible qu’un calcul a été correctement effectué, sans exposer tout le détail du calcul ni, potentiellement, les données sous-jacentes. Des travaux récents adaptent ces techniques au machine learning, pour vérifier aussi bien l’entraînement que l’inférence, ouvrant par exemple la voie à des preuves que certains modèles ont bien été entraînés dans le respect des contraintes légales de l’AI Act, sans divulguer les jeux de données ou le code exact.

Les auteurs soulignent cependant deux limites structurelles de toute politique de spécification. Premièrement, certaines tâches ont une complexité de description telle qu’il est pratiquement impossible d’en écrire une spécification complète et exploitable. Le simple exemple de l’AI Act lui-même, long mais encore loin d’une formalisation exhaustive et exempt d’ambiguïtés, montre l’ampleur du problème. Deuxièmement, sur de nombreux sujets, notamment la modération de contenus, la recommandation d’informations, la «bonne» complétion de texte, il n’existe pas de consensus social clair et stable sur la spécification à adopter; les préférences sont hétérogènes au sein de la population et évoluent dans le temps. Le risque d’«hypertélie» est également évoqué: comme en biologie où certains organes se spécialisent à l’excès au point de devenir nuisibles à l’espèce, des outils techniques trop finement adaptés à un contexte ou un objectif peuvent perdre toute capacité d’adaptation dès que le contexte change. Avec l’automatisation, la granularité des spécialisations peut devenir extrêmement fine, au risque de fabriquer une prolifération de micro-algorithmes sur-spécialisés, dont personne ne maîtrise plus la cohérence d’ensemble.

C’est pourquoi les auteurs proposent de déplacer en partie la question, du «quoi» vers le «comment»: plutôt que prétendre spécifier complètement certaines tâches ouvertes, il faut spécifier la gouvernance qui encadre la manière dont les règles applicables à ces tâches sont décidées, révisées, contestées. Le parallèle est fait avec le droit pénal: au lieu de laisser un juge omnipotent fixer librement les peines, les sociétés se sont dotées de constitutions et de procédures détaillées pour l’édiction et la modification des lois, la révision des décisions, la répartition des pouvoirs. De la même manière, pour des algorithmes de recommandation, de filtrage, d’allocation de ressources, il devient crucial de définir des mécanismes de gouvernance: qui participe à la définition des critères? avec quel poids? selon quelles procédures de vote ou de délibération? quelle transparence? quelle possibilité de recours? Le texte recense plusieurs travaux qui expérimentent des formes d’«algorithmic governance», où différentes parties prenantes (donateurs, bénéficiaires, plateformes, usagers) participent à la définition des règles que l’algorithme doit suivre, selon des procédures précisément spécifiées et parfois combinant apprentissage statistique et expression directe de préférences.

La conclusion revient à la question initiale. Si l’on s’intéresse aux entités non humaines, les classiques critiques de la spécialisation perdent beaucoup de leur force, alors que se renforcent les arguments en termes de sécurité, de robustesse, de contrôle démocratique et de valeur industrielle. L’article plaide donc pour des architectures d’IA et des cadres réglementaires qui privilégient des systèmes spécialisés, bien documentés et, autant que possible, formellement spécifiés, dotés de privilèges limités et insérés dans des chaînes socio-techniques modulaires. Pour les tâches où une telle spécification est impossible ou socialement contestée, la priorité devrait être donnée à la spécification de la gouvernance: procédures, organes, règles de décision qui encadrent l’usage et l’évolution de ces systèmes. À rebours de l’obsession pour l’AGI et les systèmes «qui font tout», les auteurs invitent à construire un écosystème d’entités non humaines spécialisées, combinant des garanties techniques issues de l’ingénierie logicielle et de la cryptographie, et des garanties institutionnelles issues du droit, de l’économie et des sciences sociales.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

Le remboursement de frais de formation payés par l’employeur

Un employé de B SA, engagé en 2015, avait déjà bénéficié de plusieurs formations financées par l’employeur. En 2021, il sollicite la prise en charge d’un Master, en précisant qu’il comprendrait un éventuel refus. L’employeur accepte et paie la formation. L’employé achève celle-ci en juin 2023 puis démissionne avec effet fin juin. L’employeur retient alors CHF 6’210.- sur son dernier salaire, invoquant une clause prévoyant le remboursement des frais de formation en cas de départ dans l’année suivant la fin des examens. L’employé saisit la justice pour exiger la restitution du montant, mais est débouté en première instance puis en appel.

Le litige porte sur la question de savoir si l’employeur peut demander à l’employé le remboursement d’une formation financée par l’entreprise lorsque celui-ci démissionne peu après son achèvement. Selon l’art. 327a CO, l’employeur rembourse les frais nécessaires à l’exécution du travail. En revanche, lorsque la formation procure surtout un avantage personnel durable à l’employé et ne découle ni d’une obligation légale ni d’une exigence directe du poste, son financement peut être soumis à des conditions. Dans ce cas, l’employeur et l’employé peuvent convenir d’une clause prévoyant le remboursement des frais si le travailleur quitte l’entreprise dans un certain délai après la formation. Une telle clause est valable si elle est convenue avant le début de la formation, si les conditions (durée d’engagement, montant à rembourser, dégressivité éventuelle) sont suffisamment claires et si elle ne restreint pas exagérément la liberté de résiliation de l’employé.

En l’espèce, les juges retiennent que la formation suivie n’était pas nécessaire à l’exécution du travail mais procurait un avantage personnel notable à l’employé. Ils constatent ensuite que deux documents internes, acceptés par l’employé au début de sa relation de travail, prévoyaient explicitement la prise en charge des formations professionnelles ainsi que l’obligation de les rembourser intégralement si l’employé quittait l’entreprise dans l’année suivant la fin de la formation. La clause s’étendait à toute formation financée par l’employeur. Le fait que l’accord de prise en charge du Master n’ait pas rappelé expressément la condition de remboursement n’y change rien, car la clause était déjà applicable et connue. L’argument selon lequel certains employés avaient été dispensés du remboursement ne suffit pas à démontrer une renonciation générale de l’employeur à cette clause, ces cas relevant soit d’un délai déjà dépassé, soit d’une décision exceptionnelle pour raisons particulières.

Les juges considèrent donc qu’il existait une volonté commune des parties selon laquelle la prise en charge de la formation impliquait le remboursement en cas de départ dans l’année suivant l’obtention du diplôme. À défaut, l’interprétation objective confirme qu’un employé raisonnable, au vu des documents remis et de la pratique en vigueur, devait comprendre que l’employeur n’entendait financer de telles formations qu’en échange d’un engagement de durée minimale. La retenue opérée sur le dernier salaire était dès lors licite. Le recours est rejeté.

(Arrêt de la Chambre des prud’hommes de la Cour de justice du canton de Genève ACJC/1517/2025 du 27.10.2025)

Me Philippe Ehrenström, avocat, LLM

Publié dans Fin des rapports de travail, Frais professionnels, Responsabilité du travailleur | Tagué , , , , , | Laisser un commentaire

Discrimination algorithmique et utilisation de l’IA dans les services publics

L’article Ivana Bartoletti, Fair AI: Utopia, aspiration or deception? The human cost of automated efficiency (in : Algorithmic Rule : AI and the Future of Democracy in Sweden and Beyond, Simon Vinge/Maja Fjoestad (édit.), novembre 2025, p. 99-106 ; https://feps-europe.eu/wp-content/uploads/2025/09/Algorithmic-rule.pdf)) analyse les enjeux liés à l’utilisation de l’intelligence artificielle dans les services publics, en soulignant à la fois les promesses d’efficacité et les risques d’injustice qu’elle comporte.

L’IA peut optimiser des processus administratifs, améliorer l’accès aux prestations et permettre une allocation plus ciblée de ressources limitées. Ces perspectives sont particulièrement attrayantes dans les secteurs où les coûts augmentent et où les administrations cherchent à faire plus avec moins.

Toutefois, l’auteur rappelle que toute technologie est façonnée par la société qui la produit et risque, en l’absence de cadre adéquat, de reproduire voire d’amplifier les inégalités existantes. Les systèmes d’IA s’appuient inévitablement sur des données historiques, qui reflètent des structures sociales, économiques et culturelles marquées par des biais. Ainsi, les promesses d’objectivité et de neutralité peuvent masquer des effets discriminatoires concrets.

Le texte souligne que cet enjeu est particulièrement sensible dans les services publics, où les décisions touchent des personnes souvent vulnérables, telles que des bénéficiaires de l’aide sociale, des demandeurs d’emploi ou des usagers dépendant de services essentiels. Lorsque les systèmes algorithmiques se trompent ou reproduisent des biais, les conséquences peuvent être lourdes : exclusion d’aides, refus d’accès à des droits, surveillance accrue ou marginalisation. De plus, les personnes concernées disposent rarement de moyens de contester ou même de comprendre la logique des décisions automatisées, ce qui crée un déséquilibre supplémentaire entre l’administration et les administrés. L’article montre que l’opacité de nombreux systèmes d’IA fragilise la confiance dans les institutions publiques en donnant l’impression que des décisions importantes sont prises par des mécanismes inaccessibles et inquestionnables.

L’auteur met en évidence que le problème de biais ne provient pas seulement des données. Il peut apparaître à chaque étape : conception du modèle, choix des variables, interprétation des résultats, conditions d’utilisation. Il ne suffit donc pas de « nettoyer » les jeux de données. Une vision globale est nécessaire, impliquant des obligations de transparence, d’audit, de contrôle démocratique et de recours individuel. Plusieurs études mentionnées montrent que les biais discriminatoires produits par des algorithmes suscitent souvent moins de contestation que les biais humains équivalents. Cette tolérance accrue résulte du prestige attaché à la technique, perçue à tort comme objective ou neutre.

Deux cas européens illustrent ces dérives. À Hambourg, des systèmes biométriques utilisés dans des procédures administratives se sont avérés moins fiables pour les personnes à la peau foncée, entraînant des difficultés d’accès aux services. En Autriche, un algorithme de profilage des demandeurs d’emploi, censé améliorer l’efficacité des politiques d’insertion, a au contraire reproduit des inégalités structurelles, notamment en défavorisant les femmes et les personnes âgées. Ces cas montrent que, sans garanties solides, l’IA peut renforcer les discriminations au lieu de les corriger.

L’article discute ensuite la question de savoir si les biais algorithmiques peuvent réellement être éliminés. Il met en avant la difficulté de définir la notion même de « fairness » : plusieurs approches mathématiques existent, mais elles sont souvent incompatibles entre elles.

L’exemple d’Amsterdam est particulièrement instructif. La ville avait entrepris un projet ambitieux, Smart Check, visant à analyser les demandes d’aide sociale en intégrant des principes de transparence et de justice. Malgré des efforts importants, le système n’a pas atteint son objectif de fiabilité et de neutralité et a finalement été abandonné. Cette expérience montre que, même lorsque l’intention est d’agir de manière responsable et que les concepteurs sont conscients des enjeux éthiques, les conditions ne sont pas toujours réunies pour garantir l’absence de discrimination. Le constat est que l’IA, en s’appuyant sur des données inscrites dans des contextes sociaux, tend à reproduire des rapports de pouvoir et des inégalités historiques.

L’auteur souligne que la réponse à ces défis ne peut être seulement technique. La lutte contre la discrimination algorithmique suppose des choix politiques, des mécanismes institutionnels de contrôle et une capacité réelle pour les individus de contester les décisions automatisées. Des cadres juridiques existent déjà, notamment en matière de protection des données, de non-discrimination et de droits fondamentaux. L’IA ne s’exerce pas dans un vide normatif. Toutefois, l’ampleur et l’opacité des systèmes algorithmiques requièrent des instruments supplémentaires, en particulier en matière d’audit, de transparence et de gouvernance.

Dans ce contexte, le rôle du droit européen est central. Le texte se réfère notamment à l’AI Act de l’Union européenne, qui établit une classification des systèmes d’IA selon le niveau de risque et impose des exigences plus fortes pour ceux utilisés dans des domaines sensibles, dont les services publics. Mais l’article insiste sur le fait que ce règlement n’est qu’un cadre d’entrée sur le marché et ne se substitue pas aux législations existantes en matière d’égalité et de droits fondamentaux. Il invite à ne pas surestimer l’AI Act, tout en affirmant qu’il constitue une étape importante dans la mise en place d’une gouvernance démocratique de l’IA.

L’auteur conclut que l’enjeu principal ne consiste pas à empêcher l’utilisation de l’IA dans les services publics, mais à garantir que son introduction s’accompagne de conditions strictes de transparence, d’explicabilité, de contrôle humain et de responsabilité. L’IA peut soutenir des objectifs d’équité si elle est intégrée dans un projet politique orienté vers la réduction des inégalités. Elle ne peut produire d’elle-même la justice qu’elle prétend incarner.

Les administrations, les législateurs et les acteurs publics doivent donc investir dans des capacités d’évaluation, de supervision et de partage de connaissances. La coopération entre autorités, chercheurs et société civile apparaît comme une condition indispensable à une utilisation de l’IA compatible avec la démocratie et l’État de droit.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans discrimination, Droit administratif général, Fonction publique, intelligence artificielle | Tagué , , , | Laisser un commentaire

L’IA comme agent procédural dans un procès modélisé

L’article de Sanket Badhe, LegalSim : Multi-Agent Simulation of Legal Systems for Dis covering Procedural Exploits (arXiv :2510.03405vl [cs.MA], 3 octobre 2025 ; https://arxiv.org/abs/2510.03405v1) présente LegalSim, un environnement de simulation destiné à étudier comment des systèmes d’IA, placés dans une procédure judiciaire adversariale, peuvent apprendre à exploiter les règles procédurales elles-mêmes.

L’objectif n’est pas la prédiction de décisions judiciaires ou l’assistance à la rédaction, mais l’observation de stratégies procédurales que des agents autonomes peuvent développer lorsqu’ils interagissent directement avec les mécanismes du procès. L’auteur part de l’idée que le droit procédural, très codifié, offre de nombreuses possibilités de séquençage stratégique : demandes de découvertes successives, motions multiples, pressions de calendrier, tentatives de faire monter les coûts pour inciter à une transaction. Ce sont des pratiques que les avocats connaissent, mais que des systèmes d’IA pourraient pousser plus loin, plus vite et à grande échelle.

LegalSim repose sur une modélisation simplifiée du procès civil.

Deux agents, demandeur et défendeur, évoluent dans un environnement où leurs actions sont soumises à des règles sous forme de fichiers JSON, c’est-à-dire un système de « règles comme du code ». L’environnement prend en compte des états tels que le budget de chaque partie, la charge procédurale accumulée, les risques de sanction, et les tendances d’un juge probabiliste (par exemple, plus ou moins sévère dans les sanctions) qui tranche certaines demandes. Les actions disponibles sont limitées mais représentatives des étapes principales d’un litige (requêtes en production de documents, motions diverses, offres de transaction, etc.). Le système inclut également la possibilité de « portes » procédurales, c’est-à-dire des conditions qui empêchent temporairement certains actes, comme le sursis automatique en cas de faillite.

L’enjeu n’est pas de déterminer « qui gagne l’affaire », mais d’évaluer des stratégies d’exploitation procédurale. Les agents reçoivent donc des récompenses selon plusieurs critères combinés : coût imposé à l’adversaire, pression liée au calendrier, pression transactionnelle même en cas de faibles chances au fond, et respect minimal des règles pour éviter les sanctions. Autrement dit, l’environnement encourage certains comportements connus des praticiens : faire durer, épuiser, pousser à régler plutôt qu’à juger. Il devient alors possible d’observer si des agents d’IA apprennent d’eux-mêmes des chaînes de manœuvres qui restent techniquement licites mais créent des déséquilibres importants.

L’étude compare quatre types de politiques de décision. La première est une stratégie heuristique élémentaire, construite manuellement comme point de référence. La seconde demande à un modèle de langage de proposer directement l’action suivante, sans apprentissage complexe. La troisième combine un système de sélection de tactiques générales (un « bandit contextuel ») avec un modèle de langage qui traduit ensuite la tactique en action spécifique. La dernière est un agent entraîné par renforcement (PPO), qui apprend par auto-jeu à maximiser son score. Les expériences sont répétées avec différents profils de juge et dans plusieurs régimes procéduraux.

Les résultats montrent une hiérarchie stable. L’agent entraîné par renforcement obtient en général les meilleurs résultats en termes de « victoire » procédurale globale. Le système hybride tactique + modèle de langage est le plus constant face à divers adversaires. Le modèle de langage utilisé seul est moins performant, et l’heuristique est la plus faible.

Cependant, ce qui importe surtout est l’émergence de « chaînes d’exploitation » procédurale. Le système révèle en effet, sans les programmer explicitement, des séquences réalistes : multiplication de requêtes de découverte pour augmenter les coûts adverses tout en restant dans les limites acceptables, exploitation maîtrisée du calendrier et des délais, utilisation de menaces de motions en sanctions comme levier, etc. Ce phénomène n’est pas entièrement surprenant, mais son aspect autonome et systématique montre comment des agents optimisateurs pourraient amplifier des pratiques déjà existantes.

L’auteur souligne que la question ici n’est pas seulement la précision ou l’équité des modèles, mais la possibilité que des agents efficaces mais non alignés exploitent les failles structurelles de la procédure elle-même. Ils recommandent donc de ne pas se limiter à tester les modèles, mais de « red-teamer » les règles de procédure, c’est-à-dire identifier et renforcer les zones susceptibles d’abus. Ils suggèrent par exemple l’introduction de mécanismes procéduraux attenuants, une modulation des sanctions selon l’intensité cumulative des actes, ou l’ajout de petites doses d’aléa pour empêcher la construction de chaînes d’exploitation trop prévisibles. Ils insistent aussi sur la nécessité de cadres de gouvernance procédurale qui anticipent l’usage d’agents autonomes, plutôt que de réagir une fois les abus observés dans la pratique.

Enfin, l’article reconnaît les limites de l’approche. La modélisation reste simplifiée, la réduction de la procédure à des actions tokenisées ne capture pas la complexité des faits et du raisonnement juridique, et les résultats ne peuvent être directement transposés à des juridictions réelles.

L’intérêt se situe dans la mise en évidence d’un risque structurel : si l’on confie à des IA des capacités procédurales autonomes, même en respectant formellement les règles, elles peuvent rapidement apprendre à en exploiter les interstices.

Pour un lecteur suisse, l’enjeu réside moins dans le droit américain en particulier que dans la question transversale : dans tout système procédural codifié, l’apprentissage automatique peut transformer des marges déjà connues en stratégies répétitives et industrialisées. L’étude invite donc les juristes à considérer non seulement l’IA comme aide à la décision, mais aussi comme acteur capable de modifier les équilibres procéduraux si son autonomie est mal encadrée.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Avocats (règles professionnelles), intelligence artificielle, Procédure, Techno-labrador | Tagué , , , | Laisser un commentaire

Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg

L’article de Charlotta Kronblad, « Algorithmic Injustice – Gothenburg miscoded school placement algorithm » (in : Algorithmic Rule : AI and the Future of Democracy in Sweden and Beyond, Simon Vinge/Maja Fjoestad (édit.), novembre 2025, p. 21-34 ; https://feps-europe.eu/wp-content/uploads/2025/09/Algorithmic-rule.pdf) présente et analyse un cas survenu à Göteborg en 2020, lorsque la ville a introduit pour la première fois un système algorithmique pour attribuer les places dans les écoles publiques. L’objectif initial était conforme à une tendance générale dans les administrations publiques : utiliser des outils numériques pour gérer plus efficacement les ressources, prendre des décisions plus cohérentes et optimiser l’allocation de services sociaux, ici les places scolaires. En Suède, la numérisation de la décision publique est considérée comme nécessaire pour faire face à des contraintes budgétaires, au manque de personnel et à la complexité croissante des tâches administratives.

À cette époque, l’usage d’algorithmes pour les décisions automatisées était autorisé dans les agences nationales, mais pas encore dans les municipalités, où les algorithmes ne devaient servir qu’à assister la décision humaine. Ce point juridique jouera un rôle central dans l’affaire.

Le système implanté à Göteborg associait les préférences déclarées par les parents, l’adresse des élèves, la capacité des écoles et les règles juridiques fixées par le droit de l’éducation. Ce dernier prévoit que les enfants doivent en principe accéder à l’école choisie par leurs parents, sauf si cela empêcherait un autre enfant d’accéder à une école proche de son domicile. Lorsque les places sont limitées, la pratique juridique impose d’évaluer la distance à l’école en se fondant sur la distance réelle à pied, et non sur une simple distance à vol d’oiseau, afin de refléter la réalité des déplacements quotidiens.

Or l’algorithme utilisé en 2020 avait été configuré pour calculer les distances en ligne droite, ignorant les contraintes géographiques de la ville, notamment la présence d’un grand fleuve qui divise Göteborg. L’erreur n’était pas spectaculaire techniquement. Ce n’était pas un système d’intelligence artificielle complexe ni auto-apprenant, mais un code déterministe utilisant de mauvais paramètres de distance. Cependant, les conséquences ont été massives. Des centaines d’enfants ont été affectés dans des établissements situés parfois à plus de dix kilomètres de chez eux, souvent de l’autre côté du fleuve, avec des trajets nécessitant plusieurs correspondances en tram, bus et ferry. De nombreux parents découvrirent ces affectations de manière soudaine, sans explication préalable, lors de la publication des décisions. Les familles ont constaté que des enfants habitant dans la même rue, voire dans le même immeuble, étaient envoyés dans des écoles différentes. Les regroupements de classes et de quartiers, qui avaient jusque-là assuré une continuité sociale, se trouvèrent brutalement dispersés.

Face au mécontentement croissant, la municipalité a reconnu que certaines décisions dépassaient la limite interne fixée de huit kilomètres et proposa de réexaminer les cas les plus extrêmes. Cependant, la majorité des affectations problématiques furent maintenues. L’audit municipal publié en 2021 confirma plusieurs erreurs : utilisation de distances à vol d’oiseau, prises en compte insuffisantes des préférences parentales, erreurs dans les adresses de certaines écoles, communication lacunaire entre l’administration scolaire et les responsables politiques. L’audit révéla également que l’autorité scolaire n’avait effectué que des contrôles ponctuels, par crainte que des révisions manuelles introduisent des biais humains, ce qui revient à avoir accordé une confiance excessive à un système qu’elle ne maîtrisait pourtant pas pleinement.

L’auteure de l’article, également mère d’un enfant concerné, a choisi de ne pas faire appel de la décision individuelle d’affectation, mais d’introduire un recours visant la légalité du processus dans son ensemble. L’objectif était de faire reconnaître que les décisions avaient été automatisées en violation du droit applicable aux municipalités, et de demander qu’en conséquence l’ensemble des affectations soit réexaminé. Pour ce faire, il aurait été nécessaire que le tribunal examine le code et son mode de fonctionnement. Or l’administration ne l’a jamais communiqué, malgré les demandes.

Devant le tribunal administratif, la ville a soutenu que les fonctionnaires avaient pris les décisions finales et que l’algorithme n’était qu’un outil d’aide. Le tribunal a estimé que la charge de la preuve reposait sur la requérante, laquelle devait démontrer le caractère automatisé de la décision. Ne pouvant accéder au code, cette preuve était matériellement impossible à fournir. Le tribunal n’a pas exercé son pouvoir d’investigation pour requérir le système auprès de la ville. L’appel et la demande à la Cour administrative suprême ont été refusés, sans que le fond ne soit examiné.

Selon l’auteure, cette affaire illustre ce qu’elle nomme une « injustice algorithmique », composée de deux dimensions. D’abord, une injustice sociale : des décisions erronées ont été prises, affectant concrètement la vie d’enfants et de familles, sans possibilité de réparation. Ensuite, une injustice juridique : le système juridique lui-même s’est révélé incapable de corriger ou même d’examiner l’erreur, faute de mécanismes adaptés pour appréhender des décisions fondées sur des systèmes numériques opaques.

Le texte souligne que le problème ne tient pas uniquement à la complexité technologique, mais aussi aux comportements institutionnels. Il met en évidence des processus d’ignorance active ou involontaire : l’administration n’a pas vérifié les résultats avant publication ; elle a minimisé les alertes des développeurs ; elle a restreint l’accès à l’information ; elle a présenté le système comme un simple outil de soutien ; et les juridictions ont appliqué des règles procédurales conçues pour un monde où les décisions administratives sont traçables et compréhensibles par des humains. Ce cumul de comportements crée une sorte de « boîte noire institutionnelle » qui n’est pas seulement technique, mais également sociale et juridique.

Pour éviter que cette situation ne se reproduise, l’auteure propose plusieurs évolutions. Les systèmes décisionnels publics doivent être accompagnés d’une obligation de transparence accessible, non seulement technique mais procédurale. Les règles de preuve et de contrôle juridictionnel doivent être adaptées, notamment en renversant la charge de la preuve lorsque l’information pertinente est entre les mains de l’administration. Il faudrait permettre aux tribunaux d’examiner directement la légalité des algorithmes et des paramètres utilisés, et non se limiter à des contestations individuelles décision par décision. Enfin, l’accès effectif aux droits ne doit pas dépendre des compétences techniques ou des ressources individuelles des familles.

En somme, ce cas montre qu’une numérisation de la décision publique peut renforcer l’efficacité, mais peut également produire des dommages structurels si elle n’est pas accompagnée de garanties réelles de transparence, de contrôle et de responsabilité. La technologie n’est pas ici le principal danger ; le risque provient de l’incapacité du système administratif et judiciaire à reconnaître et corriger ses effets lorsqu’ils deviennent injustes.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Droit administratif général, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , | Laisser un commentaire

Une personnalité juridique pour l’IA ?

Quelques réflexions tirées de UK Law Commission, AI and the Law : A Discussion Paper, juillet 2025, pp. 21-23 (https://lawcom.gov.uk/news/artificial-intelligence-and-the-law-a-discussion-paper/):

La question de savoir si les systèmes d’intelligence artificielle devraient se voir reconnaître une personnalité juridique distincte est aujourd’hui au cœur des réflexions sur la responsabilité en matière d’IA. L’idée peut paraître radicale, voire futuriste, mais elle est déjà débattue dans les milieux académiques et institutionnels. Elle répond à une difficulté bien réelle : l’absence, dans certains cas, de personne physique ou morale clairement responsable des actes ou omissions d’un système autonome. Tant que l’IA n’a pas sa propre personnalité juridique, toute faute ou tout dommage doit être rattaché à un humain ou à une entité existante ; or, plus les systèmes gagnent en autonomie et en capacité d’adaptation, plus cette attribution devient incertaine.

Le droit positif rappelle que la personnalité juridique est une construction de l’ordre juridique : elle n’existe que parce que le système juridique la confère. Les sociétés, associations, fondations ou encore certaines entités non humaines – comme des temples en Inde ou une rivière en Nouvelle-Zélande – en bénéficient. Rien n’interdit donc, en théorie, que cette qualité soit étendue à d’autres entités, pour autant qu’il existe une justification fonctionnelle. La personnalité juridique s’analyse comme un faisceau de droits et d’obligations : le pouvoir d’acquérir des biens, de contracter, de comparaître en justice ou d’être poursuivi. Ce faisceau varie selon les catégories : les sociétés, par exemple, n’ont pas les mêmes droits que les individus.

Certains précédents, certes symboliques, ont déjà testé cette idée. En 2017, l’Arabie saoudite a proclamé le robot « Sophia » citoyen, et la mairie de Shibuya à Tokyo a octroyé un statut de résident à un programme d’IA. Ces décisions relèvent sans doute davantage du marketing technologique que d’une réforme juridique sérieuse, mais elles montrent que la question n’est plus purement théorique. Le Parlement européen, en 2017 également, a évoqué la création d’une personnalité juridique propre aux robots les plus autonomes. L’initiative a suscité une vive réaction : des chercheurs et juristes ont dénoncé cette perspective comme éthiquement et juridiquement inappropriée, estimant qu’elle risquait de brouiller la frontière entre responsabilité humaine et autonomie logicielle.

Le rapport identifie ensuite trois séries de questions : pourquoi accorder ou refuser la personnalité juridique à l’IA ; à quels systèmes elle pourrait être reconnue ; et quelle forme précise elle devrait prendre.

Les arguments favorables reposent d’abord sur la gestion des « trous de responsabilité ». Si un système agit sans contrôle humain direct, il devient difficile de désigner un responsable. Lui reconnaître une personnalité propre permettrait de lui imputer directement certains actes et d’organiser un régime de réparation. Ce statut pourrait aussi encourager l’innovation : les concepteurs, sachant qu’une partie de la responsabilité est transférée à l’entité autonome, seraient plus enclins à expérimenter. Enfin, certains auteurs soutiennent qu’un système rendu juridiquement responsable serait incité à « se comporter » de manière prudente, s’il est programmé pour éviter la sanction ou la perte de ressources.

Les arguments contraires sont tout aussi importants. Accorder une personnalité à l’IA risquerait de servir de bouclier à ses créateurs : des entreprises pourraient l’utiliser pour se décharger indûment de leurs obligations. De plus, un système n’ayant ni volonté propre ni patrimoine n’est pas, en pratique, apte à répondre de ses dettes ; il faudrait donc imaginer des mécanismes artificiels de financement ou d’assurance pour que la responsabilité soit effective.

Admettons néanmoins qu’une telle réforme soit envisagée : à quelles IA l’appliquer ? Il paraît évident qu’un filtre antispam ou un algorithme d’aide à la décision ne justifie pas un statut juridique autonome. En revanche, certains « agents » dotés d’un haut degré d’autonomie, capables d’agir, d’apprendre et d’interagir avec d’autres agents, posent une question différente. La doctrine évoque plusieurs critères possibles : le degré d’autonomie, le niveau de conscience ou de compréhension du contexte, et l’intentionnalité, c’est-à-dire la capacité d’agir dans la poursuite d’un but propre. La difficulté serait de déterminer le seuil précis à partir duquel ces qualités justifieraient une reconnaissance légale.

Si un tel seuil était défini, il faudrait ensuite choisir quel type de personnalité juridique conférer. L’IA pourrait être assimilée à une société, avec des propriétaires, actionnaires ou administrateurs humains. Dans ce cas, devrait-on leur accorder une responsabilité limitée ? Le rapport rappelle que, dans le droit anglais, la limitation de responsabilité est un privilège strictement encadré : elle suppose une inscription officielle, la divulgation des personnes exerçant un contrôle significatif et la production de comptes annuels. Un régime analogue serait probablement nécessaire pour une IA-personne morale, ne serait-ce que pour identifier les individus responsables de sa supervision.

Une autre option serait d’en faire une entité véritablement indépendante, sans propriétaires humains, mais alors se poserait la question de son identification. Comme pour les individus, il faudrait prévoir des éléments d’état civil : nom, date de création, numéro d’enregistrement, voire un identifiant gouvernemental. Cette formalisation serait indispensable pour la distinguer des autres systèmes et pour la soumettre aux obligations légales.

Resterait à déterminer comment la sanctionner en cas de faute. Si une IA commet un délit, il faudrait concevoir un mécanisme d’application de la peine : confiscation d’actifs, suspension d’activité, effacement ou modification forcée du code, voire retrait de sa licence d’exploitation. La responsabilité pénale, dans un monde où l’intention et la conscience n’existent que de façon simulée, soulèverait des difficultés conceptuelles inédites.

Même si un tel cadre était mis en place, de nombreuses questions demeureraient. Quelle norme de comportement appliquer ? Si une IA est tenue à un devoir de diligence, doit-on la comparer au comportement d’un professionnel humain raisonnable ? Et si ses performances dépassent celles d’un humain dans certains domaines, mais leur sont inférieures dans d’autres, comment apprécier la faute ? Ces interrogations montrent que l’attribution de la personnalité juridique ne résout pas automatiquement les défis du droit de l’IA ; elle déplace simplement la frontière du problème.

En conclusion, le rapport reconnaît que la mise en œuvre d’une personnalité juridique pour les systèmes d’IA serait un chantier immense et incertain. À ce jour, aucune IA n’atteint un niveau d’autonomie justifiant objectivement un tel statut. Cependant, les progrès rapides de la technologie laissent entrevoir qu’un jour cette question pourrait devenir plus pressante. Certains y voient une solution pratique pour combler les lacunes immédiates en matière de responsabilité. D’autres rappellent que, sans une réflexion approfondie sur les implications éthiques, sociales et économiques, une telle réforme risquerait de créer plus de complexité qu’elle n’en résout.

Le texte se termine sur une note prudente : il ne s’agit pas d’un projet concret, mais d’une hypothèse de travail. Si la personnalité juridique de l’IA venait à être reconnue, elle devrait s’accompagner de garde-fous solides, de procédures d’enregistrement, de mécanismes de contrôle et de régimes de sanctions adaptés. En somme, le concept a le mérite d’ouvrir la discussion sur la responsabilité dans un monde où les agents autonomes sont appelés à jouer un rôle croissant, mais il ne fournit pas encore de réponse définitive à la question essentielle : qui doit répondre des actes de l’intelligence artificielle ?

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle | Tagué , , , | 3 commentaires

Les loups comme parties à une procédure de recours?

A.a. Par décision du 27 novembre 2023, l’Office fédéral de l’environnement (OFEV) a approuvé, sous certaines conditions, la régulation proactive de la meute de loups du Calfeisental (au moins 8 loups) demandée par le canton de Saint-Gall le 16 novembre 2023. Le même jour, l’OFEV a également ordonné la régulation proactive des meutes de loups dans les cantons des Grisons, du Valais, de Vaud et du Tessin (ci-après « décisions d’approbation »). Par des décisions complémentaires du 18 décembre 2023, l’OFEV a retiré l’effet suspensif à tous les recours éventuels contre les décisions d’approbation du 27 novembre 2023 qui n’avaient pas été contestées devant le Tribunal administratif fédéral à cette date. [Dans le sabir fédéral, la « régulation proactive » c’est l’autorisation de tirer…]

A.b. Le 22 décembre 2023, A.________ a demandé à l’OFEV l’accès à toutes les décisions d’approbation de l’OFEV rendues sur la base de la modification de l’ordonnance sur la chasse du 1er novembre 2023. Elle a également demandé à pouvoir s’exprimer dans le cadre d’une procédure de consultation en bonne et due forme sur la révision de l’ordonnance sur la chasse du 1er novembre 2023. Enfin, elle a demandé que les autorisations de tir déjà accordées pour la régulation proactive des loups, qui se fondent sur la révision de l’ordonnance sur la chasse du 1er novembre 2023, soient annulées.

A.c. Dans une lettre adressée à l’OFEV le 22 janvier 2024, A.________ a réitéré les demandes formulées le 22 décembre 2023 et a notamment demandé qu’il soit constaté que l’élimination de meutes de loups sans procédure de consultation régulière, sans examen de mesures moins contraignantes et sans évaluation des conséquences réglementaires, était disproportionnée et violait le droit fédéral et international. Elle a en outre demandé l’effet suspensif du « recours » ainsi que la clarification de la compétence de l’OFEV pour les « griefs pour violation du droit de consultation » et de sa légitimité à former recours à cet égard. Enfin, elle a demandé une décision susceptible de recours et l’examen de la représentation légale des loups dans la vallée de Calfeisen.

A.d. Le 23 janvier 2024, l’OFEV a transmis à A.________ toutes les décisions non contestées devant le Tribunal administratif fédéral concernant la régulation proactive des meutes de loups. Dans le même temps, il lui a refusé l’accès aux décisions contestées, notamment en indiquant que ces documents faisaient partie d’une procédure judiciaire.

A.e. Le 24 janvier 2024, A.________ s’est à nouveau adressée à l’OFEV et a réaffirmé l’urgence de sa demande. Le 25 janvier 2024, l’OFEV a informé A.________ par courrier électronique qu’il n’envisageait pas de modifier les réglementations actuellement en vigueur. Il n’y aurait pas non plus de changement concernant l’effet suspensif.

B.a. Par requête du 25 janvier 2024, A.________ a formé un recours auprès du Tribunal administratif fédéral en son nom propre, au nom des loups de la meute du Calfeisental et en tant que leur représentante. Elle demande principalement que les décisions de l’OFEV du 27 novembre 2023 et du 18 décembre 2023 relatives à la régulation proactive du loup dans le canton de Saint-Gall (demande n° 2) ainsi que dans les cantons des Grisons, Valais, Vaud et Tessin (demande n° 3) soient annulées, réexaminées ou abrogées et renvoyées à l’instance précédente. En outre, les « décisions de l’OFEV du 23 janvier 2024 et du 25 janvier 2024 » doivent être annulées et renvoyées à l’instance précédente conformément aux considérants (demande n° 4). Sur le plan procédural, elle a demandé à titre superprovisoire d’interdire la régulation de la meute de loups dans la vallée de Calfeisen (demande n° 6) et d’accorder l’effet suspensif au recours (demandes n° 5 et n° 7 [superprovisoire]). Elle a également demandé que la représentation légale de la meute de loups dans la vallée de Calfeisen soit examinée (demande n° 8). Enfin, elle a demandé qu’une mesure préventive soit ordonnée afin d’interdire l’élimination des loups abattus dans un centre de traitement des cadavres d’animaux ou à l’Institut pour la santé des poissons et des animaux sauvages de l’Université de Berne (demande n° 9). En ce qui concerne la répartition des frais, elle a demandé qu’aucun frais de procédure ne soit prélevé et, à titre subsidiaire, que l’octroi de l’assistance judiciaire gratuite soit examiné (demande n° 10).

(…)

B.e. Par arrêt du 5 août 2024, le Tribunal administratif fédéral a rejeté le recours dans la mesure où il était recevable. Le Tribunal administratif fédéral a nié la légitimation de A.________ en ce qui concerne les décisions d’approbation, car elle n’était pas particulièrement concernée et n’avait en outre pas d’intérêt actuel à agir. Dans cette mesure, il n’a pas donné suite au recours. Dans la mesure où le recours contestait le refus d’accès à des documents officiels, le Tribunal administratif fédéral est entré en matière sur le recours et l’a rejeté sur ce point.

Par recours en matière de droit public du 16 septembre 2024, A.________ (ci-après la recourante) saisit le Tribunal fédéral en son nom propre et au nom des loups de la meute du Calfeisental. Elle demande principalement l’annulation des décisions attaquées, à savoir l’arrêt du 5 août 2024 et les décisions incidentes du 29 janvier 2024 et du 18 mars 2024 du Tribunal administratif fédéral ainsi que les décisions de l’OFEV, et le renvoi de l’affaire à l’instance précédente. Elle demande en outre « l’accès aux documents officiels ». Sur le plan procédural, elle demande l’assistance d’un avocat gratuit avant de présenter sa réplique, ainsi que la renonciation aux frais de justice, ou à titre subsidiaire, l’examen de l’octroi de l’assistance judiciaire gratuite.  (…)

1.5. Conformément à l’art. 89, al. 1, LTF, est habilité à former un recours quiconque a pris part à la procédure devant l’instance précédente, est particulièrement touché par la décision attaquée et a un intérêt digne de protection à ce qu’elle soit modifiée ou annulée.

La recourante est la destinataire du jugement attaqué. Elle est donc habilitée à former recours, tant en ce qui concerne le rejet de la demande d’accès aux documents officiels qu’en ce qui concerne l’irrecevabilité du recours contre les décisions d’approbation (cf. ATF 145 II 168 consid. 2).

Les loups n’ont pas la capacité d’ester en justice, raison pour laquelle ils ne sont pas légitimés à recourir au sens de l’art. 89 LTF (cf. à ce sujet les considérants E. 4.3.1 ss ci-après). Ils ne doivent donc pas être mentionnés dans le dispositif de l’arrêt du Tribunal fédéral. (…)

3.

La présente procédure porte d’une part sur la question de savoir si la recourante et les loups de la meute du Calfeisental sont habilités à former recours contre les décisions d’approbation de l’OFEV (ci-après consid. 4). D’autre part, la question est de savoir si l’instance précédente a refusé à juste titre à la recourante l’accès à des documents officiels (ci-après E. 5).

4.

4.1. L’instance précédente n’a pas donné suite au recours contre les décisions d’approbation de l’OFEV du 27 novembre 2023 et du 18 décembre 2023, car la recourante ne remplissait pas les conditions d’un intérêt particulier au sens de l’art. 48, al. 1, let. b PA et d’un intérêt actuel à agir au sens de l’art. 48, al. 1, let. c PA, et que les loups n’avaient pas la capacité d’ester en justice (jugement attaqué E. 2. et E. 5).

La recourante estime en revanche qu’elle-même et les loups sont habilités à former recours. Elle invoque une application erronée de l’art. 48 PA et de l’art. 9 de la Convention sur l’accès à l’information, la participation du public au processus décisionnel et l’accès à la justice en matière d’environnement (Convention d’Aarhus ; RS 0.814.07). Il convient donc d’examiner en premier lieu si la recourante est habilitée à former recours (ci-après E. 4.2), puis si les loups sont légitimés à former recours ou si la recourante est habilitée à les représenter (ci-après E. 4.3).

(…)

4.2.3. Selon les constatations de l’instance précédente, qui sont contraignantes pour le Tribunal fédéral (art. 105, al. 1, LTF), la recourante est une personne privée qui n’a pas participé à la procédure devant l’OFEV et qui est donc considérée comme un tiers (arrêt attaqué, consid. 2.5). L’instance précédente a considéré que la recourante n’avait pas pu rendre vraisemblable qu’elle serait plus fortement touchée par les décisions d’approbation que le grand public. Elle a estimé qu’elle invoquait principalement dans son recours des intérêts publics généraux et qu’elle ne pouvait pas démontrer un préjudice concret la touchant directement, ses arguments ne dépassant pas le stade de simples suppositions (arrêt attaqué, consid. 2.6).

4.2.4. Les arguments avancés par la recourante ne conduisent pas à une autre appréciation. Le fait que le DETEC ne lui ait pas délivré de décision concernant la procédure de consultation relative à la révision partielle de l’ordonnance sur la chasse (cf. arrêt 2C_273/2024 du 18 juin 2025 E. 1.3.3) ne saurait justifier, dans le présent contexte, que la recourante soit personnellement concernée. Il en va de même du fait que la recourante souhaite, contrairement à d’autres personnes, participer à une telle consultation. Le fait que la recourante émette des réserves et des objections à l’égard de la révision partielle de l’ordonnance sur la chasse et, en particulier, de la possibilité d’abattre de manière proactive des loups, telle qu’approuvée par l’OFEV dans ses décisions d’autorisation, ne distingue pas la recourante d’autres tiers qui partagent son opinion. L’autorisation accordée par l’OFEV d’abattre un ou plusieurs loups d’une meute n’a pas d’incidence sur la sphère juridique de la recourante et ne la concerne pas plus que le grand public, de sorte que ses arguments équivalent à un recours populaire irrecevable.

4.2.5. Dans la mesure où la recourante fait également valoir qu’elle dispose d’une grande expérience dans le domaine de l’environnement, qu’elle est « gardienne de la nature » et qu’elle s’engage à titre privé et professionnel dans le domaine de la biodiversité, cela ne conduit pas non plus à une autre appréciation, à savoir que les décisions d’autorisation n’affectent pas la sphère juridique personnelle de la recourante. Aussi intéressée et engagée que soit la recourante dans la protection de l’environnement en général et des espèces animales protégées en particulier, cela ne justifie pas qu’elle soit personnellement concernée. La recourante fait ainsi valoir uniquement des intérêts publics, à savoir la protection de la nature et de l’environnement (cf. ATF 146 I 145 consid. 5.5 ; arrêt 1C_437/2007 du 3 mars 2009 consid. 2.6). Seules les organisations mentionnées à l’art. 12 de la loi fédérale sur la protection de la nature et du paysage (LPN ; RS 451) sont habilitées à former recours dans ces affaires ; la recourante, en tant que personne privée, ne fait pas partie de ces organisations, comme l’a constaté à juste titre l’instance précédente. En l’absence d’un intérêt particulier, la recourante n’est pas légitimée à former recours (art. 48, al. 1, let. b, PA ; art. 89, al. 1, let. b, LTF).

(…)

4.3. Il convient ensuite d’examiner si les loups ont qualité pour recourir ou si la recourante est habilitée à les représenter.

4.3.1. Conformément à l’art. 6 PA, sont considérées comme parties les personnes dont les droits ou les obligations sont affectés par la décision, ainsi que les autres personnes, organisations ou autorités qui disposent d’un recours contre la décision. Le droit de recours prévu à l’art. 48 PA et à l’art. 89 LTF présuppose donc que la personne qui forme le recours ait la capacité d’être partie (ATF 142 II 80 consid. 1.4.4 ; arrêt 2C_622/2013 du 11 avril 2014, consid. 2.2 avec référence ; DONZALLAZ, op. cit., n° 6 ad art. 89 LTF ; cf. arrêts 2C_23/2024 du 12 mars 2025, consid. 3.2.2.1 ; 2C_495/2023 du 22 février 2024 consid. 5.3). La capacité d’ester en justice est régie par le droit civil. Elle correspond à la capacité d’agir en son propre nom en tant que partie dans une procédure. Est capable d’ester en justice toute personne qui a la capacité juridique. La capacité d’ester en justice est une condition préalable à la capacité d’ester en justice, c’est-à-dire la capacité de mener soi-même un procès ou de désigner un représentant (arrêts 2C_636/2023 du 18 juillet 2024 E. 7.1 ; 2C_684/2015 du 24 février 2017 E. 1.2 ; 2C_736/2010 du 23 février 2012, consid. 1.2 ; 2C_859/2010 du 17 janvier 2012, consid. 1.3 ; 2C_303/2010 du 24 octobre 2011, consid. 2.3).

4.3.2. Conformément à l’art. 11 CC (RS 210), toute personne a la capacité juridique ; tout être humain a la capacité d’avoir des droits et des obligations. Selon l’art. 641a CC, les animaux ne sont pas des choses ; toutefois, en l’absence de réglementation particulière, les dispositions applicables aux choses s’appliquent à eux. Les animaux ne sont donc pas titulaires de droits subjectifs (ATF 147 I 183 E. 8.3 ; arrêt 2C_151/2025 du 18 juin 2025 E. 4.4 ; cf. toutefois une exigence correspondante dans la doctrine STUCKI SASKIA, Die « tierliche Person » als Tertium datur, dans : Ammann Christoph/Christensen Birgit/Engi Lorenz/Michel Margot (éd.), Würde der Kreatur, Zurich/Bâle/Genève 2015, p. 287 ss, p. 305 ss avec références).

4.3.3. Il n’existe aucune norme juridique accordant la capacité juridique aux loups (cf. à ce sujet ATF 147 I 183 E. 8.2). Le fait que les loups, en tant que partie intégrante de la nature et de l’environnement, soient protégés par l’ordre juridique (cf. art. 1 let. d LPN ; art. 2, let. b, en relation avec l’art. 7, al. 1, et l’art. 5 LChP [RS 922.0]), ne leur confère pas pour autant des droits et des obligations. En l’absence de lex specialis, la règle générale selon laquelle seule l’être humain a la capacité juridique s’applique. Les loups n’étant pas des êtres humains, ils n’ont pas la capacité juridique. Ils n’ont donc pas non plus la capacité d’ester en justice. Ils ne remplissent donc pas les conditions requises pour être admis à former un recours (cf. ci-dessus E. 4.3.1). L’instance précédente a donc pu nier la capacité d’ester en justice des loups (jugement attaqué E. 5) sans violer le droit fédéral.

4.3.4. Sans capacité d’ester en justice, il n’est pas possible de se faire représenter dans un procès (ci-dessus E. 4.3.1). Par conséquent, la recourante ne peut pas non plus mener le procès au nom des loups en tant que leur représentante. L’appréciation correspondante de l’instance précédente s’avère conforme au droit fédéral (jugement attaqué E. 5). Il en va de même pour la recourante en tant que représentante des intérêts des loups (jugement attaqué E. 2.6). Comme mentionné précédemment (ci-dessus E. 4.2.5), seules les organisations désignées par le Conseil fédéral conformément à l’art. 12 LPN peuvent prétendre à ce statut ; la recourante n’en fait pas partie.

4.4. Par souci d’exhaustivité, il convient en outre de noter que le fait que la recourante, en tant que personne privée, ne soit pas admise à former un recours au nom de l’intérêt général n’est pas contraire à la Convention d’Aarhus, comme l’a déjà relevé à juste titre l’instance précédente (jugement attaqué E. 2.6) . L’article 9 de la Convention d’Aarhus ne prévoit pas de recours populaire et n’impose pas non plus aux États membres l’obligation d’en instaurer un (ATF 146 I 145 E. 5.5 ; 141 II 233 consid. 4.3.3 ; arrêts 1C_555/2020 du 16 août 2021 consid. 5.3.2 ; 2C_206/2019 du 25 mars 2021 consid. 20.2). Le jugement contesté ne constitue pas une violation de la Convention d’Aarhus, pour autant qu’elle ait été invoquée de manière juridiquement valable (cf. consid. 2.1 ci-dessus).

Le refus d’admettre le recours de la recourante ne constitue pas non plus un déni de justice au sens de l’art. 29, al. 1, Cst. Il n’y aurait déni de justice que si l’autorité compétente refusait d’examiner et de traiter la demande dûment déposée, alors qu’elle serait tenue de se prononcer à son sujet. Une décision de non-entrée en matière rendue en violation des règles de procédure équivaut également à un déni de justice formel (ATF 149 II 209 consid. 4.2 ; 149 I 72 consid. 3.2.1 ; 144 II 184 consid. 3.1 ; arrêt 2C_80/2023 du 6 février 2024 consid. 6.1). L’instance précédente a traité le recours qui lui a été soumis et a confirmé à juste titre la décision de non-entrée en matière. Le fait que l’instance précédente soit parvenue à une conclusion avec laquelle la recourante n’est pas d’accord ne constitue pas un déni de justice.

Pour les mêmes raisons, il n’y a pas violation de la garantie de l’accès au juge au sens de l’art. 29a Cst. La garantie de l’accès au juge n’interdit pas de subordonner l’entrée en matière sur une demande, un recours ou une action aux conditions habituelles de jugement au fond, telles que la légitimation en l’espèce (arrêt 2C_23/2024 du 12 mars 2025, consid. 3.6 avec renvois). L’instance précédente ayant à juste titre nié la légitimation de la recourante et des loups, l’arrêt attaqué ne viole pas l’art. 29a Cst.

(TF 2C_458/2024 du 15.09.2025, traduction libre de l’Allemand ; voir aussi l’arrêt concernant les abeilles : https://droitdutravailensuisse.com/2025/05/12/les-abeilles-sont-elles-des-citoyennes-comme-les-autres/)

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans Animaux, Droit administratif général, Procédure | Tagué , , , | Laisser un commentaire

Droit du travail et intelligence artificielle

Parmi d’autres thèmes, nous traiterons de droit du travail et d’intelligence artificielle ce 13 novembre 2025 à Neuchâtel. J’y parlerai plus particulièrement de recrutement automatisé.

Programme complet (et autres thèmes traités) : https://infomaniak.events/fr-ch/conferences/droit-et-intelligence-artificielle-aspects-choisis/2880c49e-0276-41dc-9058-5c0c7299b26e/event/1521731

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , | Laisser un commentaire