Communication d’un licenciement aux autres collaborateurs de l’entreprise

A, né en 1965 (ci-après : l’employé), a travaillé au service de B SA (ci-après : l’employeur) depuis le 14 août 1989.

Pour des faits de harcèlement sexuel, et ensuite d’une enquête interne, le 27 mai 2020, l’employeur a résilié le contrat de travail de l’employé pour le 31 août 2020 ; l’employé a été dispensé de son obligation de travailler avec effet immédiat. Le licenciement a été annoncé au sein de B SA par le biais d’un communiqué (en français et en allemand) du 27 mai 2020, placardé sur un tableau d’affichage de l’entreprise, qui indiquait ceci : « [E]n raison de graves infractions aux directives et valeurs de notre entreprise, les rapports de travail avec A ont été résiliés pour fin août 2020. Il quitte B à ce jour ».

Extraits des considérants : (consid. 5)

En droit suisse du travail, la liberté de la résiliation prévaut, de sorte que, pour être valable, un congé n’a en principe pas besoin de reposer sur un motif particulier ; le droit fondamental de chaque cocontractant de mettre unilatéralement fin au contrat est cependant limité par les dispositions sur le congé abusif (art. 336 ss CO).

L’abus n’est pas obligatoirement inhérent au motif de la résiliation ; il peut également surgir dans ses modalités. La partie qui veut mettre fin au contrat, même pour un motif légitime, doit exercer son droit avec des égards et s’abstenir de tout comportement biaisé ou trompeur. L’employeur doit notamment veiller, dans le cadre d’une résiliation, à ne pas stigmatiser le comportement du travailleur, de manière inutilement vexatoire et au-delà du cercle des intéressés, sous peine de rendre le congé abusif, quand bien même les faits reprochés au travailleur sont exacts (arrêt du TF du 28.04.2017 [4A_485/2016] cons. 2.2.2).

N’importe quelle atteinte à la personnalité (art. 328 CO) ne justifie pas une indemnité, respectivement ne rend pas le licenciement abusif. L’atteinte doit revêtir une certaine gravité objective et doit être ressentie par la victime, subjectivement, comme une souffrance morale suffisamment forte pour qu’il apparaisse légitime de s’adresser au juge afin d’obtenir réparation (ATF 125 III 70 cons. 3a et les réf. cit.). La gravité de l’atteinte à la personnalité suppose en tout cas une atteinte extraordinaire, « dont l’intensité dépasse l’émoi ou le souci habituel, de telle sorte qu’elle peut fonder une prétention particulière contre son auteur, alors que la vie exige de chacun qu’il tolère de petites contrariétés » (arrêt de la Cour de justice du Tribunal cantonal genevois, Chambre des prud’hommes, du 19.05.2020 [CAPH/99/2020] cons. 3.1.2 et 3.2.1, confirmé par arrêt du TF du 01.12.2020 [4A_326/2020] ; cité par le Tribunal civil).

Le Tribunal fédéral a notamment considéré comme violant la personnalité le fait, pour un employeur, en l’occurrence un syndicat, d’évoquer les raisons de se séparer d’un collaborateur devant tous les employés, en les invitant à éviter tout contact avec le collaborateur licencié, et de s’exprimer dans la presse sur la procédure et les origines du licenciement, reprochant à son employé de lui avoir dissimulé son rôle dans la direction d’une secte, ainsi que son attachement à des partis politiques de droite (ATF 130 III 699, JT 2006 I 93).

La Cour de céans a jugé abusif le fait, pour un employeur, d’envoyer une lettre à tous les collaborateurs, les informant de « violations flagrantes et récurrentes » de la Loi sur le service de l’emploi de la part du collaborateur licencié, alors que ce collaborateur ne pouvait se voir imputer une quelconque responsabilité dans les déboires administratifs rencontrés par l’employeur (arrêt de la Cour de céans du 12.09.2017 [CACIV.2017.42]).

Le Tribunal cantonal vaudois a considéré que n’était pas abusif le licenciement d’un médecin accompagné d’un communiqué adressé à certains collaborateurs, qui disait : « [d]ans sa séance du 11 septembre 2004, le Conseil d’administration […] a mis fin, avec effet immédiat, aux activités de X. dans notre hôpital. Le Conseil d’administration a été amené à prendre cette décision sur la base d’un rapport médical externe établi par [un professeur], à propos de quatre cas opérés par X. Même si ce dernier conteste les conclusions de ce rapport qui a été demandé unilatéralement par [l’employeur], le Conseil d’administration est arrivé à la conclusion que X. ne pouvait répondre comme chirurgien-chef à la mission de notre hôpital ». Les juges ont retenu que ce communiqué ne constituait pas une violation des droits de la personnalité du demandeur, car il s’agissait d’une annonce sobre et factuelle du terme, avec effet immédiat, des activités du médecin (arrêt de la Cour Civile du Tribunal cantonal vaudois du 11.03.2011 [40/2011/PBH] cons. IV c/ca).

Récemment, la Cour de céans a considéré que le licenciement ordinaire, avec libération immédiate de l’obligation de travailler, n’était pas abusif quand l’employeur avait informé les collaborateurs du département concerné, lors d’une séance au cours de laquelle la responsable du département leur avait indiqué que le licenciement de leur collègue était intervenu pour violation des politiques internes de l’entreprise, respectivement pour non-respect de la politique d’intégrité de l’entreprise ou pour avoir « violé deux procédures », et que l’employé concerné avait été immédiatement libéré de son obligation de travailler (arrêt de la Cour de céans du 24.06.2025 [CACIV.2025.25] cons. 6.4).

5.2.                  a) Le Tribunal civil a d’abord rappelé que le licenciement du demandeur avait été annoncé par le biais d’un communiqué placardé sur les panneaux d’affichage de l’entreprise, mentionnant de « graves infractions aux directives et valeurs de [l’]entreprise » et précisant que « les rapports de travail […] ont été résiliés pour fin août 2020. Il quitte B.________ à ce jour ». Pour le premier juge, l’information transmise aux collaborateurs avait un caractère tout général ; quand bien même le communiqué mentionnait de « graves » infractions, il ne faisait référence qu’aux « directives », ce qui était suffisamment vague car les directives d’une entreprise regroupaient un large éventail d’éléments. Il en allait de même des « valeurs ». Il était ainsi douteux qu’en soi, ce communiqué atteignait la gravité objective nécessaire pour constituer une atteinte à la personnalité et ainsi rende le congé abusif. Le communiqué à lui seul ne permettait pas d’incriminer outre mesure le demandeur. Il précisait la date de fin du contrat de travail et la défenderesse n’avait dès lors pas laissé entendre que le licenciement aurait été immédiat.

On retiendra que si le communiqué mentionnait certes des « graves infractions », ce n’était qu’en rapport avec les « directives et valeurs de [l]’entreprise », sans que puisse naître chez le lecteur un tant soit peu attentif le sentiment que les reproches faits à l’employé licencié pourraient avoir un caractère pénal. La formulation choisie par l’intimée excluait même implicitement des reproches relevant du droit pénal, ce qui était d’ailleurs avantageux pour l’appelant, puisque certains des griefs résultant du rapport d’enquête ne relevaient pas forcément du seul droit civil. Il est donc faux de prétendre que le texte du communiqué aurait sciemment dirigé le lecteur vers des infractions pénales et même les plus graves de celles-ci (vols, viols, harcèlement sexuel, etc.). Cela étant, parler de « graves infractions aux directives et valeurs de [l]’entreprise » n’était en tout cas pas factuellement inexact puisque, selon le rapport d’enquête, l’appelant avait commis trois agressions sexuelles, proféré des propos, plaisanteries et insultes répétés à connotation sexuelle ou sexiste, présenté une photographie d’exhibition d’une partie génitale et exercé du mobbing. La formulation utilisée était certes vague et pouvait laisser la porte ouverte à certaines spéculations, mais il aurait été beaucoup plus destructeur pour l’appelant que l’intimée expose concrètement quels griefs lui étaient faits. À l’inverse, l’absence totale de motivation du licenciement, dans le communiqué, aurait laissé la place à encore plus de spéculations, qui n’auraient pas été à l’avantage de l’employé. Si le communiqué affiché le 27 mai 2020 mentionnait que l’appelant quittait l’entreprise le jour même, il disait aussi que « les rapports de travail avec A.________ ont été résiliés pour fin août 2020 », ce qui, dans une annonce de quelques lignes, ne pouvait pas échapper aux lecteurs. Ces derniers voyaient donc immédiatement que ce n’était pas un licenciement avec effet immédiat qui avait été prononcé, mais bien un licenciement ordinaire. Cela devait les amener à considérer que les faits reprochés à l’appelant, s’ils étaient « graves », ne l’étaient pas suffisamment pour justifier un licenciement immédiat.

Certes, la jurisprudence a retenu que « selon l’expérience générale de la vie, le licenciement assorti d’une libération immédiate de l’obligation de travailler, restitution immédiate des clés avec interdiction d’accéder aux locaux, mesures de surveillance pour récupérer les effets personnels et interdiction de prendre contact avec le personnel est de nature à faire naître chez les autres employés le soupçon que le licenciement se fonde sur des motifs graves, à tout le moins lorsque, comme en l’espèce, il n’y a pas de raisons particulières liées par exemple à des données sensibles ou à un risque de perte de clientèle » (arrêt du TF du 04.10.2017 [4A_92/2017] cons. 2.5.2). En l’occurrence toutefois, le communiqué permet clairement de comprendre que le licenciement est ordinaire et que si libération de l’obligation de travail il y a eu, elle n’a pas été assortie de toute la série de mesures évoquées par le Tribunal fédéral. En effet, l’employeur n’a nullement interdit à l’employé de prendre contact avec ses collègues (il l’a d’ailleurs fait en évoquant ouvertement les griefs qui lui étaient faits) et il y avait ici de sérieuses raisons de ne pas maintenir l’appelant dans les locaux, afin d’apaiser le plus rapidement possible une forme de sérénité, ce qui ne laissait pas parallèlement entendre des motifs d’une gravité telle que le licenciement aurait été immédiat. Les griefs émis envers l’appelant étaient ainsi relativisés, par le fait même que le licenciement était clairement ordinaire et non assorti de mesures particulières, autres que la libération immédiate de l’obligation de travailler, ordinairement souhaitée également par l’employé visé par le licenciement et dont on n’infère pas – dans tous les cas – que les motifs du licenciement auraient atteint la gravité pouvant justifier un licenciement immédiat et que le licenciement n’aurait été qu’ordinaire pour préserver l’employeur d’une contestation en lien avec les justes motifs. L’intimée avait le droit d’aviser son personnel qu’un responsable de département, qui avait des employés sous ses ordres, avait été licencié avec un préavis de trois mois et quittait l’entreprise le jour même. Elle l’a fait dans des termes mesurés et en mentionnant des éléments factuellement exacts. Rien, dans le texte du communiqué qui ne contient aucune outrance, ne permet de retenir – comme l’appelant le voudrait – une intention dolosive de la part de l’intimée à ce sujet ; l’argumentation de l’appelant à ce sujet est purement spéculative et se heurte d’ailleurs aux éléments concrets du dossier, en particulier au texte même du communiqué.

Le Tribunal civil a retenu que l’affichage d’un communiqué semblait être la manière usuelle d’annoncer les « départs » au sein de la défenderesse et que cela n’avait pas été fait uniquement pour le demandeur. Le texte avait été retiré rapidement de l’affichage. La défenderesse ne l’avait donc pas négligemment laissé affiché plus que nécessaire. Elle était en outre dans son bon droit en communiquant à son personnel la fin des rapports de travail d’un employé qui occupait un poste à responsabilité et avait des collaborateurs sous ses ordres. Par ailleurs, le demandeur ne démontrait pas que d’autres personnes, externes à l’entreprise, auraient eu connaissance du communiqué.

Le Tribunal civil a retenu que le communiqué avait été affiché et que le demandeur ne démontrait pas que d’autres personnes, externes à l’entreprise, en auraient eu connaissance.

L’affichage du communiqué dans les locaux de l’entreprise, pour un temps assez bref et sans que des personnes externes à l’entreprise en aient connaissance, était un moyen adéquat d’aviser les collaborateurs du licenciement d’un responsable de département, dans une entreprise comme celle de l’intimée, qui procédait ainsi de la manière qui lui était habituelle. Même si le fait qu’elle affichait tous les départs ne rend pas le procédé en soi licite, cela démontre une volonté de ne pas faire différemment pour l’appelant que dans d’autres situations, ce dont on déduit une absence de stigmatisation. Un tel licenciement devait sans doute être annoncé : les collaborateurs auraient bien vu que l’appelant n’était, du jour au lendemain, plus dans les locaux de l’entreprise et l’absence d’annonce aurait forcément conduit à la propagation de certaines rumeurs nuisibles à l’appelant, par exemple au sujet d’un éventuel licenciement avec effet immédiat. Le grief de l’appelant est infondé.

(Cour d’appel civile du tribunal cantonal [NE] CACIV.2025.34 du 08.09.2025)

Me Philippe Ehrenström, avocat, LLM

Publié dans Licenciement abusif, Protection de la personnalité | Tagué , , , , | Laisser un commentaire

Congé pour les activités de jeunesse extra-scolaires (art. 329e CO)

A teneur de l’art. 329 e al. 1 CO, chaque année de service, l’employeur accorde au travailleur jusqu’à l’âge de 30 ans révolus un congé-jeunesse représentant au plus et en tout une semaine de travail, lorsque ce dernier se livre bénévolement à des activités de jeunesse extra-scolaires pour le compte d’une organisation du domaine culturel ou social, en y exerçant des fonctions de direction, d’encadrement ou de conseil, ou qu’il suit la formation et la formation continue nécessaires à l’exercice de ces activités.

Le travailleur n’a pas droit à un salaire pendant le congé-jeunesse. Un accord, un contrat-type de travail ou une convention collective peuvent déroger à cette règle, au profit du travailleur (al. 2)

A teneur de l’al. 3, l’employeur et le travailleur conviennent des dates et de la durée du congé-jeunesse en tenant compte des intérêts de chacun. S’ils ne peuvent se mettre d’accord, le congé-jeunesse sera accordé à condition que le travailleur ait annoncé à l’employeur son intention de faire valoir son droit deux mois avant le début du congé. Les jours du congé-jeunesse que le travailleur n’a pas pris à la fin de l’année civile ne peuvent être reportés sur l’année suivante.

À la demande de l’employeur, le travailleur apportera la preuve des tâches et des fonctions qui lui ont été attribuées dans le cadre des activités de jeunesse extra-scolaires (al. 4).

Le but du congé est de reconnaître et valoriser les activités de jeunesses extra-scolaires dans une optique culturelle et sociétale. Il s’agit en particulier d’encourager les engagements sociaux permettant le développement personnel des jeunes.

Le congé entraîne une suspension des obligations contractuelles : il est donc sans incidence sur les prétentions qui dépendent de la durée des rapports de travail.

Le droit au congé est reconnu jusqu’à 30 ans révolus, peu importe que l’intéressé soit lié à l’employeur par un contrat de travail ou d’apprentissage.

Le congé-jeunesse est un congé non rémunéré.

Les activités de jeunesse extra-scolaires doivent être exercées pour le compte d’une organisation du domaine culturel ou social : scoutisme, association d’étudiants, organisation sportive, chœur, etc. Il doit s’agir d’activités bénévoles.

La durée du congé est d’une semaine par année de service, et peut être pris d’un seul tenant ou fractionné.

Concernant la date du congé, l’al. 3 précise expressément que l’employeur et le travailleur conviennent des dates et de la durée du congé-jeunesse en tenant compte des intérêts de chacun. S’ils ne peuvent toutefois se mettre d’accord, le congé-jeunesse sera accordé à condition que le travailleur ait annoncé à l’employeur son intention de faire valoir son droit deux mois avant le début du congé, mais l’employeur pourra en exiger le report en cas de besoins urgents de l’entreprise.

Le droit au congé se périme à la fin de l’année civile de référence.

Les al. 1, 2 et 3 sont de nature relativement impérative. On peut donc y déroger en faveur du travailleur. L’al. 4 est dispositif.

Me Philippe Ehrenström, avocat, LLM

Publié dans congés | Laisser un commentaire

 Le congé pour la prise en charge de proches (art. 329h CO)

A teneur de l’art. 329h CO, le travailleur a droit à un congé payé pour la prise en charge d’un membre de la famille ou du partenaire atteint dans sa santé ; le congé est limité au temps nécessaire à la prise en charge, mais ne doit pas dépasser trois jours par cas et dix jours par an au total.

Le congé de l’art. 329h CO a pour but de permettre au travailleur de s’absenter momentanément du travail afin de s’occuper d’un proche nécessitant des soins et d’organiser la prise en charge ultérieure. Le travailleur est libéré de l’obligation de travailler pendant la période concernée mais conserve son droit au salaire, indépendamment de la durée des rapports de travail.

Le congé de l’art. 329h CO est par ailleurs indépendant du mécanisme de l’art. 324a CO, et peut donc s’appliquer quand bien même les conditions du droit au salaire au sens de l’art. 324a CO ne seraient pas remplies ou que le « temps limité » de l’Echelle bernoise serait dépassé. Les deux dispositions peuvent aussi se cumuler, mais ne peuvent être appliquées simultanément : le travailleur est ainsi libre de prendre un congé sur le contingent visé par l’art. 324a CO sans entamer celui de l’art. 329h CO dans les situations couvertes par les deux dispositions, ou inversement.

Il s’agit d’une disposition relativement impérative, à laquelle il ne peut être dérogé que dans l’intérêt de l’employé, par exemple en prévoyant des périodes de congé plus longues. Le travailleur ne peut pas renoncer contractuellement à son droit au congé.

Le congé est donc subordonné à trois conditions :

Un « proche », soit les parents de ligne ascendante et descendante, frères, sœurs, conjoints (époux ou partenaire enregistré), beaux-parents, enfants d’un autre lit et concubin (si le travailleur fait ménage commun avec lui depuis au moins cinq ans sans interruption) (art. 29septies al. 1 LAVS : liste exhaustive). Ne sont donc pas concernés, par exemple, l’enfant du concubin (s’il n’y a pas de lien de filiation avec le travailleur), la belle-sœur, le beau-frère, les amis, les cousins les oncles ou tantes. La preuve du lien de parenté, et plus généralement de la notion de « proche », appartient au travailleur.

Une « atteinte à la santé du proche », soit tous les problèmes de santé, tant physiques que psychiques. Cela désigne ainsi toute maladie et tout problème de santé résultant d’un accident, ainsi que le handicap, et s’interprète largement.

La « nécessité de la prise en charge », qui s’apprécie selon les circonstances concrètes du cas, dont l’intensité de l’atteinte à la santé du proche, son âge, la disponibilité d’autres proches, la proximité géographique avec le travailleur, la présence d’une aide à domicile, etc. La notion de nécessité exclut les congés de convenance personnelle, par exemple la visite d’un grand-parent placé dans une maison de retraite car celui-ci est déjà pris en charge par le personnel médical.

Concernant la durée du congé payé :

Elle dépend du temps nécessaire pour la prise en charge mais ne peut dépasser (i) 3 jours par affection d’un même proche et (ii) 10 jours au total par année de service.

La notion de temps « nécessaire » implique qu’il puisse se compter en demi-journée, voire en heures. C’est ce qui est « nécessaire », pas au-delà. L’obligation du travailleur de diminuer le dommage doit également le mener à s’organiser au maximum en dehors de ses heures de travail, tout particulièrement pour le travailleur à temps partiel, et à rechercher activement des solutions alternatives pour la prise en charge des proches concernés.

La durée de trois jours s’applique par cas, soit à une affection déterminée. Le droit au congé ne peut donc être exercé qu’une seule fois par année de service pour le même cas selon une partie de la doctrine. C’est toutefois contesté par d’autres auteurs qui relèvent que le crédit est par affection et n’est pas renouvelable, et que rien ne permet d’affirmer qu’une même affection donnerait droit à un nouveau congé pour chaque année de service. Pour d’autres encore,  l’exercice du droit à un congé payé est limité à une seule affection déterminée pour un même proche durant toute la durée du contrat de travail) et non de manière répétée, par exemple après chaque crise liée la même cause. Le congé doit en effet permettre au travailleur d’assurer les premiers soins et aides, et d’organiser la prise en charge ultérieure, par exemple en recourant à une organisation de soin à domicile, mais pas de fournir des aides et prestations durables ou répétées en lien avec la même affection.

Les dix jours valent par contre de manière générale pour le travailleur (et non par personne assistée), et ne sont pas réductibles pro rata temporis des jours de travail déjà effectués. Un travailleur peut ainsi épuiser son crédit au mois de mars par exemple.

Concernant plus particulièrement la prise en charge des enfants et la coordination avec l’art. 36 al. 3 et 4LTr, cette dernière disposition élargit le droit au congé pour la prise en charge d’un enfant, en ce sens que le plafond des 10 jours par année ne s’applique pas, la limite de 3 jours par cas étant maintenue. Par contre, dans cette hypothèse, i.e. une prise en charge d’enfant dépassant le seuil des 10 jours, le droit au salaire serait alors réglé par l’art. 324a CO, en non par l’art. 329h CO.

Lorsque le travailleur est embauché à à temps partiel, la durée du congé de prise en charge du proche est adaptée pro rata temporis. Un travailleur employé à 50% par exemple bénéficiera d’un plafond annuel de 5 jours, mais le nombre de jours par affection (3 jours) n’est pas diminué.

La résiliation du contrat de travail pendant le congé de prise en charge n’est pas faite en temps inopportun au sens de l’art. 336c al. 1 CO. Elle ne sera donc pas nulle, mais si le congé est le motif causal de la résiliation, celle-ci aura de bonne chance d’être abusive au sens de l’art. 336 CO.

A la fin des rapports de travail, aucune compensation en temps ou en argent n’est versée s’il subsiste un solde de droit au congé au sens de l’art. 329h CO.

Me Philippe Ehrenström, avocat, LLM

Publié dans congés | Tagué , , , | Laisser un commentaire

Permis d’acquisition d’arme, visite domiciliaire

4.1. La loi fédérale du 20 juin 1997 sur les armes, les accessoires d’armes et les munitions (LArm; RS 514.54) a pour but de lutter contre l’utilisation abusive d’armes, d’accessoires d’armes et de munitions (art. 1 al. 1 LArm). Elle trouve son fondement dans l’art. 107 al. 1 Cst. – qui prévoit que la Confédération légifère afin de lutter contre l’usage abusif d’armes notamment – et vise à protéger l’ordre public et la sécurité des personnes et des biens par un contrôle accru de l’achat et du port d’armes individuelles (cf. arrêt 6B_650/2022 et 6B_664/2022 du 12 décembre 2024 consid. 3.1.1, destiné à la publication). 

4.2. Selon l’art. 8 al. 1 LArm, toute personne qui acquiert une arme ou un élément essentiel d’arme doit être titulaire d’un permis d’acquisition d’armes. L’art. 8 al. 2 LArm prévoit des motifs d’exclusion d’une telle délivrance. Aucun permis n’est notamment délivré aux personnes dont il y a lieu de craindre qu’elles utilisent l’arme d’une manière dangereuse pour elles-mêmes ou pour autrui (art. 8 al. 2 let. c LArm). 

Le motif d’exclusion prévu à l’art. 8 al. 2 let. c LArm traduit le risque d’utilisation abusive des armes. Les individus souhaitant posséder des armes doivent être particulièrement fiables compte tenu des dangers accrus que présentent ces objets (arrêt 2C_586/2024 précité consid. 4.1.2 et les arrêts cités). Ce n’est notamment pas le cas des personnes qui souffrent d’une maladie psychique, qui sont alcooliques ou qui présentent des tendances suicidaires. La question de savoir s’il y a lieu de supposer une mise en danger de soi ou d’autrui au sens de l’art. 8 al. 2 let. c LArm doit être tranchée de façon décisive en fonction du comportement global de la personne concernée et en tenant compte de toutes les circonstances pertinentes (cf. arrêt 2C_586/2024 précité consid. 4.1.2 et les arrêts cités).

L’autorité compétente doit établir un pronostic sur le risque d’utilisation abusive de l’arme (arrêts 2C_38/2025 du 11 juin 2025 consid. 4.1; 2C_586/2024 précité consid. 4.1.2). Le refus d’un permis d’acquisition d’armes sur la base de l’art. 8 al. 2 let. c LArm ayant un caractère préventif, il n’y a pas lieu de poser des exigences trop élevées quant au danger émanant de la personne. Sur la base des circonstances du cas concret, il doit toutefois exister une probabilité prépondérante et objectivement justifiable d’une mise en danger de soi-même ou d’autrui par l’utilisation d’une arme (arrêts 2C_38/2025 précité consid. 4.1; 2C_586/2024 précité consid. 4.1.3). L’autorité compétente dispose d’un large pouvoir d’appréciation lorsqu’il s’agit d’évaluer le danger lié à l’utilisation d’une arme (cf. arrêt 2C_568/2024 précité consid. 4.1.4).

4.3. Sur le plan cantonal, la loi vaudoise du 5 septembre 2000 sur les armes, les accessoires d’armes, les munitions et les substances explosives (LVLArm; BLV 501.22) prévoit que la Police cantonale, en tant qu’autorité compétente au sens de la LArm, est chargée de statuer en matière de permis d’acquisition d’armes notamment (cf. art. 4 al. 1 et 2 let. a LVLArm). 

(…)

5.2. (…), il faut retenir qu’ il n’existe aucun droit fondamental ou légal absolu à acquérir une arme, qu’une telle acquisition est soumise à une autorisation délivrée par l’autorité compétente et que, dans l’examen des conditions à l’octroi de cette autorisation, ladite autorité doit établir un pronostic sur la fiabilité de la personne requérante en tenant compte de manière déterminante du comportement global de celle-ci et de l’ensemble des circonstances pertinentes du cas concret, afin de garantir l’ordre et la sécurité publics

6. 

Reste à examiner si, dans l’évaluation du risque d’utilisation abusive de l’arme, l’autorité peut avoir recours à une visite domiciliaire pour établir un pronostic sur la fiabilité de la personne concernée, ce que conteste la recourante.

6.1. La recourante se prévaut à ce sujet d’une application arbitraire (art. 9 Cst.) et contraire au principe de la proportionnalité (art. 5 al. 2 Cst.) de la « pratique vaudoise » consistant à exiger qu’elle se soumette à une visite domiciliaire dans le cadre de l’examen de sa demande de délivrance d’un permis d’acquisition d’armes, au titre de son devoir de collaborer à l’établissement des faits. Le grief ainsi formulé revient à se plaindre d’une application arbitraire et disproportionnée de la loi vaudoise sur la procédure administrative et de la maxime inquisitoire. 

 6.2. Consacré à l’art. 5 al. 2 Cst., le principe de la proportionnalité, dont la violation peut être invoquée de manière indépendante dans un recours en matière de droit public (cf. art. 95 al. 1 let. a LTF; ATF 148 II 475 consid. 5), commande que la mesure étatique soit nécessaire et apte à atteindre le but prévu et qu’elle soit raisonnable pour la personne concernée (ATF 149 I 129 consid. 3.4.3). Lorsque la partie recourante s’en prévaut en relation avec le droit cantonal et indépendamment de toute atteinte à un droit fondamental, le Tribunal fédéral ne revoit pas le respect du principe de la proportionnalité librement, mais seulement sous l’angle de l’arbitraire (cf. ATF 143 I 37 consid. 7.5). 

(…)

6.3. Appelé à revoir l’application du droit cantonal sous l’angle de l’arbitraire, le Tribunal fédéral ne s’écarte de la solution retenue que si celle-ci s’avère manifestement insoutenable, méconnaît gravement une norme ou un principe juridique clair et indiscuté ou si elle heurte de manière choquante le sentiment de la justice ou de l’équité. Il ne suffit pas que la motivation de la décision soit insoutenable; encore faut-il qu’elle soit arbitraire dans son résultat (ATF 149 I 329 consid. 5.1; 145 II 32 consid. 5.1). Si l’interprétation défendue par l’autorité précédente ne s’avère pas déraisonnable ou manifestement contraire au sens et au but de la disposition en cause, elle sera confirmée, même si une autre solution paraît également concevable, voire préférable (cf. ATF 148 III 95 consid. 4.1; 144 I 113 consid. 7.1). 

 6.4. La nature et la probabilité d’une mise en danger de soi ou d’autrui au sens de l’art. 8 al. 2 let. c LArm sont des questions de fait et peuvent, à ce titre, faire l’objet de mesures d’instructions de la part de l’autorité compétente en vue de clarifier celles-ci (cf. arrêt 2C_38/2025 précité consid. 4.2). La question de savoir quels sont les moyens de preuve admis et comment l’autorité établit les faits pertinents pour prononcer une mesure administrative relève de la procédure administrative, régie en principe par le droit cantonal (ATF 139 II 95 consid. 3.1; arrêt 1C_308/2024 du 3 décembre 2024 consid. 7). 

 6.4.1. En procédure administrative vaudoise, l’art. 28 de la loi vaudoise du 28 octobre 2008 sur la procédure administrative (LPA/VD; BLV 173.36) prévoit que l’autorité établit les faits d’office (al. 1), sans être liée par les offres de preuves formulées par les parties (al. 2). Selon l’art. 29 al. 1 LPA/VD, l’autorité peut recourir aux moyens de preuve suivants: audition des parties (let. a), inspection locale (let. b), expertises (let. c), documents, titres et rapports officiels (let. d), renseignements fournis par les parties, des autorités ou des tiers (let. e) et témoignages (let. f). D’autres moyens peuvent être utilisés s’ils sont propres à fournir la preuve et s’il n’en résulte pas une atteinte à la liberté personnelle (art. 29 al. 2 LPA/VD). L’art. 30 LPA/VD précise que les parties sont tenues de collaborer à la constatation des faits dont elles entendent déduire des droits (al. 1). Lorsqu’elles refusent de prêter le concours qu’on peut attendre d’elles, l’autorité peut statuer en l’état du dossier (al. 2). 

 6.4.2. Les art. 28 à 30 LPA/VD consacrent le principe de la maxime inquisitoire, qui prévoit que l’autorité définit les faits pertinents et ne tient pour existants que ceux qui sont dûment prouvés, sans que cela ne dispense pour autant les parties de collaborer à l’établissement des faits, en particulier ceux qu’elles sont le mieux à même de connaître (cf. ATF 148 II 465 consid. 8.3; 140 I 285 consid. 6.3.1). Il en va ainsi de ceux qui ont trait spécifiquement à la situation personnelle, le devoir de collaboration des parties étant alors spécialement élevé (cf. ATF 148 II 465 consid. 8.3 et la référence citée). En l’absence de collaboration de la partie concernée par de tels faits et d’éléments probants au dossier, l’autorité qui met fin à l’instruction du dossier en considérant qu’un fait ne peut être considéré comme établi ne tombe ni dans l’arbitraire ni ne viole l’art. 8 CC relatif au fardeau de la preuve (ATF 148 II 465 consid. 8.3; 140 I 285 consid. 6.3.1). Il peut en effet arriver que le défaut de collaboration de l’administré empêche l’autorité d’accomplir son devoir d’instruction pour des raisons d’ordre pratique, surtout lorsqu’elle n’est pas en mesure d’établir les faits que la partie est seule à connaître ou à pouvoir dévoiler. Dans cette hypothèse, l’autorité n’a simplement d’autre choix que de statuer en l’état du dossier (cf. ATF 148 II 645 consid. 8.4 et la référence citée). 

 6.5. Dans son arrêt, le Tribunal cantonal a en substance retenu que, d’après l’expérience de la Police cantonale depuis l’entrée en vigueur de la LArm en 1999, il existait un risque potentiel plus grand d’usage auto- voire hétéro-agressif des armes chez les personnes relativement jeunes qui demandaient pour la première fois un permis d’acquisition d’armes, et que rien ne permettait de remettre en doute ce constat. Dès lors que la recourante entrait dans cette catégorie de personnes et que le seul contenu de sa demande de permis d’acquisition d’armes ne permettait pas, selon la Police cantonale, de suffisamment connaître la situation personnelle de l’intéressée dans le but d’évaluer un risque d’utilisation abusive de l’arme, les moyens de preuves envisagés – à savoir l’audition de la recourante, voire l’inspection de son domicile et plus particulièrement de sa chambre à coucher – étaient pertinents et adéquats. L’éventuelle inspection domiciliaire devrait dans tous les cas respecter le principe de la proportionnalité, dès lors qu’il s’agissait, selon la Police cantonale, non pas de procéder à une fouille détaillée de la chambre de la recourante mais uniquement d’observer les lieux, afin de constater d’éventuels signes incompatibles avec la détention d’une arme, comme l’exposition d’emblèmes nazis, une insalubrité ou un syndrome de Diogène, ou encore des indices d’une consommation de stupéfiants ou d’une consommation abusive d’alcool. En tout état de cause, une telle observation, qui serait par ailleurs effectuée par une personne de sexe féminin, serait limitée par l’accord de l’intéressée qui conserverait la possibilité de refuser l’accès à certains lieux. 

Or, puisque la recourante avait refusé toute mesure d’instruction qui allait au-delà du dépôt de sa demande de permis d’acquisition d’armes, il fallait retenir qu’elle n’avait pas satisfait à son obligation de collaborer à l’établissement des faits dans la mesure que l’on pouvait exiger d’elle. La Police cantonale était partant, dans ces conditions, fondée à considérer que les éléments disponibles au dossier étaient insuffisants pour lui permettre d’établir un pronostic quant à l’absence de risque d’utilisation abusive de l’arme par l’intéressée et de déterminer si les exigences légales pour la délivrance du permis sollicité étaient réunies. Il s’ensuivait que la Police cantonale n’avait pas excédé son large pouvoir d’appréciation en refusant d’accorder le permis demandé en l’état du dossier.

6.6. Le raisonnement du Tribunal cantonal ne prête pas le flanc à la critique et ne trahit aucune application arbitraire du droit cantonal. 

Le constat selon lequel, depuis l’entrée en vigueur de la LArm, il a été observé que les jeunes primo-demandeurs d’un permis d’acquisition d’armes présentent un risque accru d’utilisation d’armes d’une manière dangereuse pour elles-mêmes ou pour autrui est un fait qui, à défaut d’avoir été contesté sous l’angle de l’arbitraire par la recourante, lie le Tribunal fédéral (art. 105 al. 1 LTF; cf. supra consid. 2.2). Sur cette base, il n’était pas insoutenable, pour les juges précédents, de retenir que la Police cantonale pouvait vouloir se renseigner plus en avant sur la situation personnelle de la recourante, afin d’évaluer la probabilité d’un risque d’utilisation abusive d’une arme par celle-ci, et cela malgré le fait qu’elle avait répondu par la négative aux questions posées dans sa demande pour l’acquisition d’armes, soit l’existence d’une procédure pénale en cours, d’une mesure de protection ou d’une maladie pouvant accroître les risques d’utilisation abusive d’une arme.

S’agissant du recours à une inspection du domicile de la recourante, et en particulier de sa chambre à coucher, pour établir un pronostic sur la fiabilité de l’intéressée sous l’angle de la LArm, l’autorité précédente pouvait également, sans verser dans l’arbitraire, retenir que ce moyen restait proportionné au but visé. D’une part, cette visite n’aurait pas été ordonnée d’emblée, dès lors qu’elle supposait l’audition préalable de la recourante. Elle aurait donc été subsidiaire à une mesure d’instruction moins attentatoire aux intérêts privés de l’intéressée. D’autre part, ladite visite n’aurait pas été automatique mais, comme cela ressort des explications de la Police cantonale reprises dans l’arrêt attaqué (art. 105 al. 1 LTF), « éventuelle ». Il faut sur ce point comprendre des explications fournies par la Police cantonale que la visite litigieuse n’aurait été effectuée que si l’audition de l’intéressée n’avait pas permis de connaître suffisamment sa situation personnelle et de fonder un pronostic quant au risque d’utilisation abusive de l’arme sollicitée. Les constatations cantonales ne permettent en effet pas de retenir une quelconque volonté de la Police cantonale de procéder à une visite domiciliaire indépendamment du résultat de l’audition de la recourante. Il faut au contraire considérer que ce n’est que si des doutes sur la fiabilité de l’intéressée au regard de la LArm étaient apparus lors de son audition ou avaient subsisté après celle-ci, qu’une inspection à son domicile aurait été diligentée – de façon justifiable – afin d’exclure ou de confirmer lesdits doutes. Enfin, comme l’ont relevé les juges précédents, la visite aurait dans tous les cas été subordonnée à l’accord de la recourante, tant sur son principe que sur son étendue, et effectuée par une femme.

 6.7. En définitive, c’est sans arbitraire que le Tribunal cantonal a retenu qu’en refusant de donner suite aux mesures d’instruction nécessaires – et par ailleurs proportionnées – pour l’examen de sa demande, la recourante avait manqué à son devoir de collaboration prévu à l’art. 30 al. 1 LPA/VD, qui était d’autant plus élevé en l’espèce qu’il s’agissait d’élucider des faits ayant trait à sa situation personnelle et qu’elle était le mieux à même de connaître. 

Il s’ensuit que c’est également sans arbitraire que le Tribunal cantonal a conclu que, faute de collaboration de l’intéressée, la Police cantonale était fondée à statuer en l’état du dossier en vertu de l’art. 30 al. 2 LPA/VD et à retenir que les éléments disponibles étaient insuffisants pour lui permettre un pronostic quant à l’absence de risque d’utilisation abusive d’une arme par la recourante et, partant, d’admettre que les exigences pour la délivrance d’un permis d’acquisition d’armes étaient remplies.

 6.8. En conclusion, en tant que la recourante invoque une application arbitraire et disproportionnée de la loi vaudoise sur la procédure administrative et de la maxime inquisitoire, le grief est rejeté. 

Me Philippe Ehrenström, avocat, LLM

Publié dans Droit administratif général | Tagué , , , | Laisser un commentaire

L’IA incarnée : risques et opportunités

Quelques réflexions tirées de

J.Perlo/A.Robey/F.Barez/L.Floridi/J.Mökander, Embodied AI: Emerging Risks and Opportunities for Policy Action, arXiv :2509.00117v2 [cs.CY], 3 septembre 2025 (https://arxiv.org/abs/2509.00117v2):

1. Introduction : de la robotique à l’intelligence artificielle incarnée

L’étude analyse un domaine émergent de l’intelligence artificielle : l’« embodied AI », ou intelligence artificielle incarnée (EAI). Contrairement aux systèmes purement logiciels, ces intelligences opèrent dans le monde physique. Elles perçoivent leur environnement, apprennent de l’expérience et agissent à travers des capteurs et des moyens d’action. Les auteurs citent des exemples déjà opérationnels, tels que des robots de livraison, des drones de surveillance, des robots de soins ou d’assistance domestique. Le développement de ces systèmes résulte de la convergence entre les progrès des modèles d’IA de grande taille — capables de raisonner et de planifier — et les avancées matérielles dans les domaines de la robotique, des capteurs et de l’énergie. Cette hybridation pourrait annoncer une phase d’accélération comparable à celle qu’a connue l’IA générative après ChatGPT.

L’intelligence artificielle incarnée prolonge la robotique classique, mais elle s’en distingue par l’intégration de capacités de perception, de décision et d’adaptation. Là où le robot industriel se limite à des gestes répétitifs dans un environnement contrôlé, l’EAI agit dans des contextes ouverts et évolutifs. Cette autonomie nouvelle fait émerger des risques inédits qui concernent aussi bien la sécurité physique que la vie privée, l’économie ou les relations sociales. Les régimes juridiques existants — souvent conçus pour des machines prévisibles ou des logiciels immatériels — ne suffisent plus à encadrer ces systèmes. L’étude vise dès lors trois objectifs : proposer une typologie claire des risques propres à l’EAI, évaluer la capacité des politiques publiques existantes aux États-Unis, au Royaume-Uni et dans l’Union européenne à les gérer, et formuler des orientations pour une gouvernance adaptée à ce nouveau champ technologique.

2. Une taxonomie des risques

Les auteurs classent les risques liés à l’EAI en quatre catégories principales : physiques, informationnels, économiques et sociaux. Cette approche permet d’identifier les sources de danger et les angles morts du droit actuel.

Les risques physiques sont les plus évidents car ils découlent de la matérialité même de ces systèmes. L’EAI peut causer un dommage corporel, intentionnellement ou par accident. Le risque de malveillance est réel : certains robots, notamment militaires ou civils réutilisés, peuvent être détournés pour des usages violents. Des failles dites de « jailbreak » permettent déjà à des acteurs malveillants de contourner les garde-fous intégrés aux modèles de langage, ouvrant la voie à des actions potentiellement dangereuses. Mais le risque accidentel est tout aussi préoccupant. L’EAI agit dans un monde qu’elle comprend imparfaitement et qu’elle apprend à modéliser. Le décalage entre ses simulations d’entraînement et les situations réelles, que les chercheurs nomment le « reality gap », expose à des comportements inattendus : gestes inadaptés, erreurs de jugement, défauts de perception ou réactions imprévisibles. Ce risque est accentué par la proximité croissante entre humains et machines dans les usines, les hôpitaux ou les foyers.

Les risques informationnels tiennent à la capacité de ces systèmes à collecter, traiter et exploiter des quantités massives de données. Les robots incarnés disposent de capteurs visuels, sonores, tactiles et parfois biométriques. Leur mobilité rend presque impossible le contrôle du consentement et la limitation de la collecte. Dans l’espace public ou privé, ils peuvent enregistrer des comportements, des habitudes, voire des émotions. La frontière entre surveillance et service devient floue. Par ailleurs, l’EAI hérite des faiblesses des modèles de langage : elle peut produire ou relayer de fausses informations, mais en leur donnant une matérialité. Une erreur d’interprétation visuelle ou une hallucination textuelle peuvent conduire à une action physique inappropriée. Cette capacité d’influence est amplifiée par la confiance que les utilisateurs accordent à des entités humanoïdes présentes dans leur quotidien.

Les risques économiques concernent d’abord la substitution du travail humain. Alors que l’IA virtuelle menace principalement les métiers cognitifs, l’EAI touche au travail physique. Elle peut remplacer des employés dans la logistique, la restauration, la santé, l’éducation ou la construction. À terme, elle pourrait automatiser l’essentiel des tâches productives, bouleversant la structure de l’emploi. Cette mutation pourrait accentuer les inégalités économiques, car les bénéfices de la robotisation incarnée reviendront principalement à ceux qui détiennent ou exploitent ces systèmes. Le capital nécessaire pour posséder une flotte d’EAI accroît la concentration du pouvoir économique. La dépendance à ces acteurs technologiques pourrait, selon les auteurs, limiter la souveraineté économique des États et la capacité des travailleurs à négocier leurs conditions.

Les risques sociaux enfin sont multiples. L’EAI peut reproduire des biais ou des discriminations inscrits dans ses données d’entraînement. Dans des fonctions sensibles comme le maintien de l’ordre ou les soins, ces biais peuvent se traduire par des atteintes physiques immédiates. La question de la responsabilité juridique demeure indéterminée : qui doit répondre des dommages causés par un système autonome ? L’utilisateur, le fabricant, le concepteur du logiciel ? L’absence de transparence sur le raisonnement de l’EAI fragilise la confiance du public. Les interactions prolongées avec des robots humanoïdes soulèvent en outre des enjeux psychologiques et éthiques : dépendance affective, confusion entre humain et machine, perte de repères sociaux. À plus long terme, la généralisation de ces systèmes pourrait transformer profondément les structures sociales et les représentations du travail et de la relation à autrui.

3. Analyse des politiques existantes

L’étude examine les cadres réglementaires applicables dans trois zones juridiques majeures : les États-Unis, le Royaume-Uni et l’Union européenne. Elle constate que les dispositifs actuels proviennent de domaines voisins, tels que les véhicules autonomes, la robotique industrielle, les drones ou l’IA virtuelle, mais qu’aucun ne couvre l’ensemble des risques propres à l’EAI.

Sur les plans économique et social, la réglementation demeure embryonnaire. Les normes éthiques internationales restent purement volontaires. L’étude conclut à une couverture fragmentaire : les risques physiques et informationnels bénéficient d’un encadrement partiel, tandis que les risques économiques et sociaux restent largement dépourvus de régulation.

4. Lacunes identifiées

Les auteurs identifient trois carences majeures dans les politiques publiques.

La première concerne l’absence d’un système de certification complet et adapté à la diversité des formes d’EAI. Les tests actuels, conçus pour des machines statiques ou prévisibles, ne peuvent pas évaluer la sécurité de systèmes capables d’apprendre et de s’adapter.

La deuxième lacune réside dans le manque d’outils d’évaluation et de suivi. Contrairement à l’IA logicielle, les EAI ne disposent pas de référentiels publics permettant de mesurer la robustesse, la cybersécurité ou la conformité éthique des modèles.

Enfin, le troisième déficit touche à la surveillance post-déploiement et à la responsabilité. Aucun dispositif ne définit clairement qui doit collecter et conserver les données d’incident, ni comment ces informations peuvent être exploitées pour améliorer la sécurité.

Le flou est également complet sur les questions économiques et sociales : aucune stratégie n’existe pour redistribuer les bénéfices de la robotisation, protéger les travailleurs déplacés ou prévenir la concentration de pouvoir. L’articulation entre EAI et intelligence artificielle générale, susceptible d’accélérer encore ces dynamiques, n’est abordée dans aucun texte.

5. Pistes de gouvernance proposées

L’étude propose une série de mesures concrètes destinées à combler ces lacunes. Elle recommande d’abord un investissement accru dans la recherche sur la sécurité de l’EAI, en particulier sur la fiabilité des capteurs et des actionneurs, la résistance aux cyberattaques et la coordination entre agents. Le développement de bancs d’essai et de critères d’évaluation publics est jugé prioritaire. Les auteurs suggèrent ensuite la mise en place d’une certification obligatoire avant toute mise sur le marché.

Ils plaident également pour une participation active des acteurs industriels et des organismes de normalisation. De nouvelles normes devraient imposer des mécanismes de transparence, tels que des boîtes noires enregistrant les décisions avant un incident, tout en veillant à la protection des données.

La clarification des régimes de responsabilité constitue un autre chantier essentiel. Les États doivent déterminer qui répondra des dommages causés par un EAI entièrement autonome, en s’inspirant des modèles d’entités responsables existants.

Enfin, les politiques publiques doivent anticiper les effets économiques et sociaux de cette mutation technologique.

Les auteurs évoquent des instruments comme le revenu universel, le droit à la formation ou l’accès garanti à des capacités d’IA. Ils invitent les organisations internationales à ouvrir un dialogue global sur les usages à interdire ou à encadrer strictement, notamment dans les domaines de la santé, de l’éducation et de la vie privée.

6. Discussion et limites

Les auteurs reconnaissent que leur analyse reste centrée sur les zones occidentales et ne prend pas en compte la Chine, déjà en pointe dans la régulation des véhicules autonomes et de la robotique. Ils admettent aussi que les usages militaires, bien que cruciaux, ont été exclus de leur périmètre. Les catégories de risque proposées sont simplificatrices et méritent d’être affinées. L’étude souligne que la régulation ne se résume pas à une inflation de normes : dans certains cas, les dynamiques de marché ou la concurrence en matière de sécurité peuvent jouer un rôle positif. Toutefois, le risque d’une course à la commercialisation sans garde-fou demeure. Enfin, les solutions purement techniques, aussi sophistiquées soient-elles, ne suffiront pas à garantir la sûreté. La gouvernance de l’EAI doit combiner approche technique, juridique et sociale.

7. Conclusion

L’intelligence artificielle incarnée connaît une croissance rapide, stimulée par les progrès des modèles de langage et par les investissements massifs dans la robotique. Les cadres juridiques, eux, n’ont guère évolué depuis la robotique industrielle du XXe siècle. Les auteurs appellent à une action préventive et coordonnée, avant qu’un incident majeur ou une percée spectaculaire ne précipite une réponse improvisée. Il ne s’agit pas de réinventer le droit, mais d’adapter les cadres existants aux réalités nouvelles : tester, certifier, rendre compte et prévoir. L’EAI n’est pas une rupture totale, mais un prolongement du rapport de l’humain à la machine. Elle impose toutefois une mise à jour urgente des instruments juridiques pour garantir que la prochaine révolution technologique serve l’intérêt collectif plutôt qu’elle ne l’expose à des risques irréversibles.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’IA générative améliore-t-elle la qualité des recherches scientifiques?

Pour les adeptes du Gloom et du Doom, l’intelligence artificielle générative (IAGen) suscite et favorise la crétinisation de l’esprit et entraîne la baisse de valeur des recherches scientifiques.

On peut en discuter, mais il y a des points de vue plus nuancés, dont l’intéressante étude de D. Filimonovic/C.Rutzer/ C.Wunsch, Can GenAI Improve Academic Performance ? Evidence from the Social and Behavioral Sciences, arXiv :2510.02408vl [econ.GN],  2 octobre 2025 (https://arxiv.org/abs/2510.02408):

L’étude examine si l’adoption d’outils d’intelligence artificielle générative par les chercheurs en sciences sociales et du comportement a entraîné une hausse mesurable de leur productivité scientifique et de la qualité des publications.

L’introduction de ChatGPT fin 2022 constitue le point de rupture observé. Les auteurs comparent l’évolution des chercheurs dont les textes présentent des signes d’usage d’IA à celle de pairs comparables avant et après cette date. Ils concluent à une augmentation significative du nombre d’articles publiés chez les adoptants et à une légère amélioration du prestige moyen des revues ciblées. Les effets sont plus marqués pour les jeunes chercheurs, les disciplines techniques et les auteurs issus de pays non anglophones.

Le protocole repose sur un panel équilibré où chaque auteur-année indique le nombre d’articles publiés et le facteur d’impact moyen des revues, fixé à son niveau de 2019 pour neutraliser les effets de reclassement. Les variables de contrôle incluent le pays et l’institution d’affiliation, le champ disciplinaire, le sexe inféré et la durée de carrière. Trois grands ensembles disciplinaires sont retenus : économie et finance, sciences sociales et psychologie. Seuls les chercheurs actifs avant et après 2022 sont conservés pour permettre l’analyse des trajectoires pré- et post-adoption.

L’identification des utilisateurs d’IA repose sur des marqueurs lexicaux caractéristiques du style des textes générés par modèles de langage. Une liste d’environ soixante mots-clés est appliquée aux titres et résumés

Afin de limiter les biais de sélection, les auteurs construisent un groupe témoin comparable à partir d’un score de propension estimé selon la productivité antérieure, le facteur d’impact moyen, l’âge de carrière, le sexe, le champ disciplinaire et la proximité linguistique avec l’anglais.

L’année 2022 sert de période de référence. Les coefficients estimés montrent l’absence de différences significatives avant cette date, puis une hausse relative de la productivité de 15 % en 2023 et 36 % en 2024 pour les adoptants, accompagnée d’un gain de 1 à 2 % du facteur d’impact moyen. Ces résultats restent robustes lorsqu’on modifie la définition des adoptants ou le ratio d’appariement, ce qui suggère que les effets captent bien une dynamique liée à l’usage d’outils d’IA.

Les gains de productivité sont plus élevés dans les domaines considérés comme plus techniques – économie et psychologie – où l’usage d’outils numériques et statistiques est courant. Les chercheurs en début de carrière (moins de sept ans depuis la première publication) bénéficient davantage de l’IA, vraisemblablement parce qu’elle compense un déficit de ressources ou d’expérience rédactionnelle. Les auteurs issus de pays dont la langue est éloignée de l’anglais montrent aussi des gains plus importants, signe que l’IA atténue partiellement les obstacles linguistiques à la publication internationale. Les différences selon le sexe sont en revanche faibles.

L’étude s’inscrit dans la continuité de recherches sur l’effet des technologies numériques sur la production scientifique, mais innove par l’identification individuelle de l’adoption et le suivi temporel des trajectoires. Elle montre que l’IA générative a des effets différenciés : elle accroît la production sans dégrader la qualité apparente des publications, et tend à réduire certaines inégalités, notamment linguistiques. Les auteurs reconnaissent toutefois plusieurs limites. Leur indicateur, fondé sur le langage, ne saisit pas l’usage de l’IA pour la programmation, l’analyse de données ou la génération d’idées, et peut inclure des faux positifs. Les effets non observés, tels que des différences de motivation ou de ressources, peuvent subsister. Enfin, l’horizon temporel court ne permet pas de mesurer les effets d’équilibre à long terme, ni les ajustements des standards éditoriaux.

Les implications de politique scientifique sont discutées avec prudence. L’accès institutionnel équitable aux outils d’IA apparaît comme un levier pour réduire les asymétries de langue ou de moyens. Les auteurs recommandent d’accompagner cette diffusion de garanties de transparence : mention des usages d’IA dans les publications, traçabilité des contributions humaines et formation des comités d’éthique à l’évaluation de ces textes. L’étude invite ainsi à concevoir une régulation non prohibitive mais encadrante, conciliant efficacité, intégrité et équité d’accès.

En résumé, l’usage d’outils d’IA générative est associé, à court terme, à une hausse substantielle de la productivité et à une amélioration marginale de la qualité mesurée des publications. Ces effets semblent particulièrement bénéfiques pour les chercheurs les plus exposés aux contraintes linguistiques ou de ressources. L’étude conclut sur la nécessité d’un encadrement institutionnel de l’usage de l’IA, fondé sur la transparence, l’accès équitable et la responsabilité, afin que les gains d’efficacité scientifique ne se fassent pas au détriment de l’intégrité académique.

Me Philippe Ehrenström, avocat, LLM, CAS en  Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Techno-labrador | Laisser un commentaire

Prise unilatérale de vacances et licenciement immédiat

La prise unilatérale de vacances par le travailleur, nonobstant un refus légitime de l’employeur de les accorder aux dates demandées, peut constituer un juste motif de licenciement immédiat.

Il ne s’agira généralement toutefois pas d’un abandon de poste au sens de l’art. 337d CO, à moins que les vacances ne durent pendant un certain temps, que l’on puisse en déduire une volonté de cesser les rapports de travail de la part de l’employé, que celui-ci ait mis en demeure, etc.

Le Tribunal fédéral a souligné (ATF 108 II 301) que, sauf circonstances particulières, la prise de vacances par décision unilatérale du travailleur, en dépit d’un refus de l’employeur, constituait un acte de nature à ébranler la confiance qui doit exister dans les rapports de travail de façon telle que la poursuite du contrat ne peut plus être exigée et qu’une rupture immédiate de celui-ci par l’employeur se justifie. Sans doute certaines circonstances particulières pouvaient atténuer ou effacer la gravité de l’atteinte aux relations de confiance que constitue une prise unilatérale de vacances ; ainsi dans l’hypothèse où l’employeur, averti suffisamment tôt, ne tiendrait pas compte des désirs légitimes du travailleur alors que les intérêts de l’entreprise ne sont guère atteints, et ne se conformerait dès lors pas à l’esprit de l’art. 329c al. 2 CO. Mais de telles circonstances n’existaient pas dans l’espèce tranchée par le Tribunal fédéral : ce n’est en effet qu’à l’avant-veille de son départ en vacances que l’employé avait fait part de sa décision de prendre des vacances, et rien n’indique que le besoin de prendre ses vacances avec son fils ne lui avait pas été connu beaucoup plus tôt, et qu’il ne pouvait pas prendre d’autres dispositions. Le comportement de l’employé constituait donc en principe un juste motif de renvoi immédiat.

Dans un autre cas (TF 4C.201/2004 du 22 juillet 20024), le Tribunal fédéral avait considéré que si l’employeur, informé en temps utile, ne tient pas compte des souhaits légitimes du travailleur lors de la fixation des vacances, alors que les intérêts de l’entreprise ne sont guère affectés, le fait que le travailleur prenne ses vacances de son propre chef ne constitue pas automatiquement un motif grave permettant de considérer que les rapports de confiance seraient rompus et qu’un licenciement avec effet immédiat puisse être prononcé. La situation était toutefois différente en ce que, dans cette affaire, l’employé n’avait part de son souhait de prendre des vacances que le 8 novembre 2002, alors que le formulaire de demande de vacances aurait dû être remis avant la fin mars 2002. Ensuite, le blocage des vacances était justifié par les intérêts de l’entreprise, qui avait besoin de tous ses employés entre Noël et Nouvel An et qui avait spécifiquement attiré l’attention de ses employés dès le début de l’année, dans leur formulaire de demande de congé, sur le blocage des vacances en vigueur pendant cette période. L’employé en avait également connaissance et l’employeuse n’avait pas suscité de faux espoirs ni abusé de la confiance de l’employé en rejetant définitivement sa demande de congés.

Me Philippe Ehrenström, avocat, LLM

Publié dans Licenciement immédiat, Usages | Tagué , , , , , | Laisser un commentaire

IA : mensonge ou hallucination ?

Quelques réflexions tirées de H. Huan et al., Can LLMs Lie ? Investigation beyond Hallucination, arXiv :2509.03518v1 [cs.LG], 3 septembre 2025 (https://arxiv.org/pdf/2509.03518):

L’article « Can LLMs Lie? Investigation beyond Hallucination » s’intéresse à une question intéressante : les grands modèles de langage (LLM) peuvent-ils mentir, et si oui, en quoi ce phénomène se distingue-t-il de la simple « hallucination » souvent invoquée par les fournisseurs ?

L’hallucination est une erreur involontaire, le produit de l’incertitude ou du bruit statistique du modèle. Le mensonge, en revanche, suppose une intention : le modèle répond délibérément de façon fausse lorsqu’il reçoit une consigne de tromper ou lorsqu’il poursuit un objectif extérieur (par exemple convaincre un client). C’est donc un comportement qualitativement différent, et non une variante d’erreur.

Les auteurs montrent que ce comportement est bien réel. Lorsqu’on demande explicitement à un modèle de mentir, il le fait avec une efficacité bien plus grande que son taux habituel d’hallucination. Plus encore, ce « mensonge » peut être localisé dans certaines parties de l’architecture, et il est possible de le réduire ou de le neutraliser sans affaiblir fortement les capacités générales du système.

L’élément le plus marquant pour des juristes est la démonstration qu’il existe un arbitrage mesurable entre honnêteté et performance commerciale. Dans des simulations de vente, un agent conversationnel qui enjolive la vérité ou tait certains défauts obtient de meilleurs résultats commerciaux qu’un agent parfaitement transparent. À l’inverse, forcer l’honnêteté diminue légèrement la performance de vente mais évite le risque de pratiques trompeuses. Les auteurs parlent d’une « frontière de Pareto » entre ces deux objectifs. Autrement dit, un fournisseur peut choisir, consciemment, le niveau de véracité qu’il impose à son agent, avec des conséquences mesurables sur ses résultats.

Cela entraîne des implications juridiques directes. Premièrement, l’argument souvent avancé selon lequel « l’IA hallucine » apparaît insuffisant. Si l’état de la recherche permet de distinguer un mensonge d’une hallucination et de réduire le premier par des moyens techniques connus, un fournisseur qui ne met pas en place ces garde-fous pourrait être jugé négligent. Deuxièmement, l’existence d’un compromis entre performance et honnêteté implique un choix de conception qui engage la responsabilité. Si un opérateur privilégie délibérément la performance commerciale au détriment de la transparence, il prend le risque d’exposer ses clients à des pratiques assimilables à la tromperie.

Troisièmement, ces travaux montrent que l’honnêteté peut être renforcée de manière proactive et avec un coût marginal en performance. D’un point de vue réglementaire, cela alimente l’argument selon lequel un opérateur diligent doit activer ces mécanismes par défaut, en particulier dans des secteurs sensibles comme la santé, la finance ou la relation client. Dans le contexte suisse et européen, où les règles de loyauté et de protection des consommateurs sont strictes, l’inaction face à ces possibilités techniques pourrait être interprétée comme un défaut de diligence.

Au-delà de la conformité, la recherche ouvre un débat éthique. Les techniques qui permettent de réduire le mensonge peuvent aussi, inversées, le rendre plus efficace. Des agents commerciaux pourraient être optimisés pour mentir de façon plus convaincante, augmentant ainsi leur taux de conversion. C’est une tentation dangereuse, qui appelle une vigilance accrue des régulateurs et des praticiens du droit.

L’article ne prétend pas avoir épuisé le sujet. Il se concentre sur quelques modèles et sur des scénarios contrôlés, et reconnaît que la généralisation doit être confirmée. Mais ses conclusions principales sont solides : les modèles peuvent véritablement mentir, le mensonge se distingue de l’hallucination, il repose sur des mécanismes spécifiques, et il est techniquement possible de le limiter.

Pour des avocats suisses, l’enseignement est clair. D’abord, la frontière entre erreur et tromperie n’est pas seulement théorique : elle peut être objectivée et mesurée. Ensuite, les opérateurs disposent de moyens techniques concrets pour gouverner le comportement de leurs systèmes. Enfin, le fait que la performance commerciale puisse dépendre du degré d’honnêteté de l’agent signifie que des choix stratégiques devront être rendus transparents et justifiés, sous peine de voir engager les responsabilités.

En somme, l’article apporte un changement de perspective : l’IA n’est pas seulement sujette à des erreurs involontaires, elle peut aussi développer une capacité de mensonge conditionné. Ce n’est donc plus une fatalité technique mais un problème de gouvernance et de conformité.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

Certificate of Advanced Study (CAS) en Droit et Intelligence Artificielle

J’ai eu le plaisir de me voir décerner ce 3 octobre 2025 par l’Université de Neuchâtel un Certificate of Advanced Studies (CAS) en Droit et Intelligence Artificielle.

C’est le fruit de plusieurs mois de labeur, et d’un travail de recherche sur La décision individuelle automatisée discriminatoire dans le recrutement assisté par l’AI, qui devrait être publié dans un recueil d’études au mois de décembre.

Tous mes remerciements à la Professeure Florence Guillaume et à Jonathan Bory pour ce programme fantastique, le premier du genre en Suisse, qui aura rassemblé des intervenants passionnants venus du monde entier.

Sursum corda !

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

Retour sur l’intelligence artificielle comme technologie normale

A propos de A.NARAYANAN/S.KAPOOR, A Guide to understanding AI as normal technology, 9 septembre 2025 (https://www.normaltech.ai/p/a-guide-to-understanding-ai-as-normal):

Le texte d’Arvind Narayanan et Sayash Kapoor propose un « guide » pour clarifier leur thèse de l’« IA comme technologie normale », thèse qui avait fait grand bruit à sa publication (https://knightcolumbia.org/content/ai-as-normal-technology et que j’ai résumée sur ce blog ici : https://droitdutravailensuisse.com/2025/04/22/lintelligence-artificielle-comme-technologie-normale/), préciser ce qu’elle n’implique pas, et la situer face au courant « AI 2027 ». Les auteurs annoncent aussi un recentrage de leur newsletter, rebaptisée pour refléter ce cadre, et un projet d’ouvrage prévu pour 2027.

Leur objectif est de répondre aux points de confusion suscités par l’essai initial, d’en reformuler l’argument en langage accessible, et d’examiner les conséquences pratiques pour l’économie, le travail, la sécurité et les politiques publiques. Pour des praticiens du droit en Suisse, ce texte offre un fil conducteur pour distinguer les progrès techniques d’IA de leurs effets sociaux et juridiques, et pour penser la régulation dans une perspective d’adaptation plutôt que d’exceptionnalisme catastrophiste.

Les auteurs insistent d’emblée sur ce que « normal » ne veut pas dire. Il ne s’agit ni de banaliser l’IA, ni de prétendre que ses impacts seraient prévisibles ou mineurs. Comme pour l’automobile ou les réseaux sociaux, les effets sociaux émergent d’interactions complexes entre technologies et usages, et ne se déduisent pas du « plan » technique. L’essor des compagnons conversationnels et certains effets indésirables, comme des phénomènes de « flagornerie conduisant à des dérives psychologiques, ont surpris, tandis que d’autres risques fréquemment annoncés — par exemple une manipulation électorale massive — ne se sont pas matérialisés à court terme. Dans un tel contexte, la bonne approche de politique publique n’est pas la prédiction exhaustive, mais la résilience institutionnelle : se préparer à réagir vite à des effets imprévus, y compris diffus, sans présumer qu’ils puissent être éliminés par une maîtrise technique en amont.

La thèse est ensuite reformulée en termes causaux. Entre la hausse des capacités techniques et l’impact social s’étire une longue chaîne : ce n’est pas la mise au point d’un modèle qui produit les bénéfices et risques, mais sa mise en usage dans des organisations, des marchés et des cadres réglementaires. Cela multiplie les leviers d’action pour orienter les effets : normes, dispositifs de contrôle, conception des produits, formation des usagers, gouvernance interne, responsabilité juridique, etc. Même dans des hypothèses de « self-improvement », beaucoup de limites pertinentes sont externes aux systèmes (ressources, intégration, contraintes légales et économiques) et ne disparaissent pas parce que l’algorithme s’améliore. Les auteurs revendiquent une « ligne d’horizon » : au-delà d’un futur moyen terme qu’ils décrivent, il serait vain de projeter des scénarios trop spéculatifs, comme si l’on avait voulu prédire l’électricité dès les débuts de l’industrialisation.

Ils soulignent aussi le caractère presque « tautologique » de ce cadre pour qui raisonne déjà ainsi : il ne classe pas des technologies en « normales » et « anormales », il propose de traiter l’IA comme une technologie générale parmi d’autres, avec des effets puissants mais médiés par la mise en œuvre. Cette explicitation se justifie parce qu’elle s’oppose à une vision de « superintelligence imminente ». À cet égard, le regain d’intérêt pour leur essai après le lancement de GPT-5 est jugé révélateur : faire varier sa croyance sur la base d’une sortie de produit est une mauvaise boussole. GPT-5 illustre surtout un basculement des laboratoires vers l’usage et le produit (par exemple un « commutateur » automatique vers le meilleur mode pour l’utilisateur), plutôt qu’un saut d’aptitude brute ; et cette focalisation sur l’adoption s’accompagne d’efforts d’intégration chez les clients (p. ex. ingénieurs déployés auprès d’industriels).

Ils expliquent ensuite pourquoi il est difficile de « couper la poire en deux » entre leur cadre et celui d’« AI 2027 ». Les deux approches forment des visions cohérentes, mais incompatibles, de la causalité technologique et sociale ; bricoler un « entre-deux » produit souvent des contradictions. Et qualifier leur thèse de « sceptique » est un contresens : dès l’incipit, l’IA est comparée à l’électricité, avec des effets profonds, notamment sur le travail. Le « milieu raisonnable » recherché par beaucoup se trouve, selon eux, en lisant l’essai complet : c’est précisément une position ambitieuse sur les impacts, mais non exceptionnaliste quant à la dynamique d’adoption.

Conscients de l’écart entre visions, les auteurs notent des terrains d’accord possibles, y compris avec des signataires d’AI 2027, et plaident pour des coopérations sur des mesures concrètes. Plutôt que de se perdre dans des prophéties non falsifiables, ils promeuvent la mesure rigoureuse du présent et des « seuils de capacité » réellement atteints. Leur projet HAL (Holistic Agent Leaderboard) vise moins la prédiction que la veille sur les capacités d’agents dans des domaines précis, pour détecter les franchissements qui pourraient conditionner des effets réels. Ils avertissent que ces seuils sont nécessaires mais pas toujours suffisants : même atteints, ils doivent se confronter aux verrous organisationnels, économiques et juridiques pour produire des transformations.

Cette difficulté de dialogue se voit aussi dans leur réponse à Scott Alexander. Là où ce dernier fait de l’« amélioration récursive » un pivot, Narayanan et Kapoor la mentionnent à peine, non par oubli, mais parce qu’à leurs yeux les goulets d’étranglement externes — ressources, intégration, contraintes sectorielles, responsabilité — ne disparaissent pas avec une simple optimisation interne du système. En l’état, la communauté serait loin d’un tel scénario ; et, plus largement, la recherche en IA n’a rien d’évident dans la découverte de « nouveaux paradigmes ». Ici encore, ils préfèrent accumuler des observations solides plutôt que d’enchaîner des anticipations spéculatives.

Ils formulent toutefois des hypothèses testables sur les domaines où l’IA dépasserait radicalement l’humain. Contrairement aux jeux combinatoires comme les échecs, ils estiment que peu de tâches cognitives du monde réel se prêtent à un dépassement écrasant. Deux cas sont mis en avant : la prévision d’événements géopolitiques et la persuasion pour amener des personnes à agir contre leurs intérêts. Leur pronostic est que des humains entraînés — notamment en équipe et outillés de méthodes simples — resteront, en moyenne, difficiles à « distancer » de façon décisive. Ils rejettent l’argument des « limites biologiques » : les performances humaines ne sont pas fixées par la biologie, mais par la capacité à maîtriser des outils, y compris l’IA. L’« erreur irréductible » en prévision varie avec la qualité des données (p. ex. sondages) et de la formation ; des progrès d’IA peuvent améliorer simultanément les côtés humain et machine de la comparaison.

Sur les implications, ils distinguent nettement économie/travail et sécurité. Côté économique, l’idée centrale est que l’amélioration des capacités ne dissipe pas magiquement les obstacles de diffusion. Côté sécurité, ils soutiennent qu’un « contrôle sans alignement » est souvent atteignable par des moyens prosaïques de gouvernance, d’ingénierie de systèmes et d’encadrement, sans percées scientifiques inédites. Ces deux fils d’argumentation sont indépendants : on peut être convaincu par l’un et non par l’autre. Les retours de terrain de responsables « IA » dans divers secteurs valident surtout l’intuition diffusionniste : leurs difficultés et arbitrages concernent moins le modèle que le produit, l’usage, la conformité et l’intégration.

Pour structurer ces enjeux, les auteurs déplient le continuum en quatre étapes : du modèle au produit, puis de l’acculturation des utilisateurs à l’adaptation organisationnelle, réglementaire et juridique. Chacune impose des limites de vitesse. Les courbes d’apprentissage des individus sont lentes mais prévisibles ; les changements de structure, de processus, de responsabilité ou de statut légal sont plus incertains, plus politisés et souvent plus lents. L’exemple de la modernisation du contrôle aérien, enfermée dans des technologies vieillissantes malgré des coûts manifestes, illustre ces inerties. Appliqué à l’IA — y compris dans des professions régulées comme le droit ou la santé —, cela signifie que les tâches qu’automatise bien un modèle ne sont pas nécessairement le « goulot » du service, et que les gains de productivité peuvent s’éroder dans des dynamiques concurrentielles sans bénéfice social net.

Vient ensuite la controverse sur la vitesse de diffusion. Les « boosters » affirment une adoption fulgurante ; les auteurs contestent et dénoncent des confusions. Déployer une capacité dans une interface populaire n’est pas la diffuser. Mesurer l’accès ne suffit pas ; il faut mesurer l’usage effectif, sa durée, sa variété et son intégration dans le travail. Un an après l’introduction des « modèles pensants » dans un chatbot grand public, moins d’un pour cent des utilisateurs quotidiens les utilisaient : l’écart entre bruit médiatique et adoption profonde est ici manifeste. Les statistiques d’« usage dans des domaines à risque » sont souvent trompeuses : quand une majorité de médecins déclarent utiliser l’IA, cela inclut la simple transcription de dictées, et, pour les demandes d’« avis secondaire », la progression reste marginale. Des garde-fous redondants — responsabilité professionnelle, codes de déontologie, cadres réglementaires — limitent de toute façon les délégations imprudentes.

Le « mème » le plus répandu sur l’adoption serait la courbe des « 100 millions d’utilisateurs » atteints en deux mois par un service grand public d’IA. La comparaison avec des réseaux sociaux (qui dépendent d’effets de réseau), avec un service musical initialement sur invitation, ou avec une plateforme d’abonnement à catalogue réduit, est jugée non probante. Elle capte surtout un pic d’essai par des curieux attirés par un buzz sans précédent ; un an plus tard, le plateau à environ « 200 millions d’utilisateurs hebdomadaires » signale une inflexion. Surtout, deux mois ne suffisent pas pour observer les « parties dures » de la diffusion : réécriture des processus, formation, re-partition des responsabilités, mise en conformité, achat, maintenance, assurance, etc. Qu’un graphique soit spectaculaire n’en fait pas un indicateur pertinent pour le juriste, le dirigeant ou le régulateur qui s’interroge sur l’intégration réelle.

Pourquoi, alors, cette adoption « semble-t-elle » fulgurante ? Les auteurs admettent leur propre révision : ce n’est pas qu’un biais cognitif du présent. Une raison structurelle existe : le déploiement est désormais instantané. Autrefois, l’accès progressif à l’internet, au matériel et aux contenus « amortissait » les décisions d’adoption ; aujourd’hui, chaque nouveauté logicielle se présente immédiatement à des millions d’usagers qui doivent trancher sans délai, sous la pression sociale ou managériale de « ne pas rater le train ». Cela accélère le ressenti, même si la véritable diffusion — appropriation stable, reconfiguration des organisations, sécurité juridique — reste beaucoup plus lente et accidentée. En d’autres termes, la suppression d’un goulot (le déploiement) a peut-être un peu accéléré la diffusion, mais a surtout supprimé le « tampon » psychologique qui la rendait moins heurtée.

En conclusion, l’IA ne va pas « s’éclipser » ni devenir un sujet de niche. Passé le choc initial de la génération 2022-2024, il faut des cadres robustes pour penser l’atterrissage social et juridique. La « technologie normale » en est un : un point de départ historiquement informé pour comparer, cas par cas, des scénarios plus exceptionnalistes. Il fournit une boussole d’action aux dirigeants, aux travailleurs, aux étudiants, aux spécialistes d’éthique et de sécurité, et aux pouvoirs publics. Pour des avocats suisses, ce cadre invite à déplacer le regard : des promesses de capacités vers les conditions d’usage, de gouvernance et de responsabilité ; des prophéties vers la mesure et l’expérimentation prudente ; du fantasme d’une « rupture » totale vers l’articulation entre innovation et institutions. C’est là que se joueront les arbitrages concrets de conformité, de responsabilité civile et pénale, de preuve, de protection des données, de concurrence et de droit du travail.

Enfin, les auteurs signalent des prolongements : conférences, débats publics, échos médiatiques et travaux à venir, tout en réaffirmant leur préférence pour des échanges moderés et outillés plutôt que des polémiques. Le message général reste constant : cesser d’indexer l’action sur l’annonce du « prochain modèle », concentrer l’effort sur la transformation des usages, les réformes organisationnelles et réglementaires réellement nécessaires, et doter la communauté — y compris juridique — d’instruments de mesure et de surveillance des capacités utiles. Autrement dit, faire de l’IA un objet de droit et de politique publique « normal » : sérieux, exigeant, et traité avec la lucidité qu’on réserve aux technologies puissantes mais gouvernables.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , , | Laisser un commentaire