Author Archives: Me Philippe Ehrenström

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains

In Memoriam José van Dam (1940-2026)

En souvenir d’un immense baryton-basse, qui nous a quitté le 17 février 2026 sans que cela intéresse grand monde apparemment. Je me souviens notamment des Monologues de Jedermann, qu’il avait chanté et défendu de manière éblouissante, lors d’une soirée, il … Lire la suite

Publié dans Divers | Laisser un commentaire

Lunettes de réalité augmentée et protection des données

L’essor des lunettes de réalité augmentée présente des promesses pour le quotidien, la santé, l’accessibilité et le travail. Il y a toutefois des risques majeurs : captation discrète d’images et de sons, collecte de données intimes (regard, biométrie), reconnaissance faciale, surveillance au travail, monitorage constant. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

Données personnelles : pseudonymisation ou anonymisation?

Le Conseil d’État français, dans une décision du 13 février 2026, revient sur la pseudonymisation des données. Des données ne sont anonymes que si l’identification est pratiquement impossible au regard de moyens raisonnables (temps, coût, outils). Ici, les codes patients/clients pouvaient être « levés » car les jeux contenaient des dates (parfois heures), des variables démographiques et surtout des identifiants de prescripteurs, permettant d’individualiser des parcours de soins avec des outils simples. Les données restent donc personnelles et ne sont pas anonymes ; le RGPD s’applique. Lire la suite

Publié dans droit européen, droit français, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

Détection de l’usage de l’IA dans un mémoire de master (II)

Pour qu’une Université entende sanctionner une étudiante pour usage de l’IA dans son mémoire de master, encore faudrait-il que ladite Université produise à la procédure les règles internes qu’elle aurait édicté sur cette question et qui n’auraient pas été respectées. (Référé) Lire la suite

Publié dans droit français, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Régulation algorithmique et affaiblissement de l’Etat de droit – à propos de l’algorithmic rule by law

Lorsque l’administration applique le droit via des systèmes algorithmiques, cela entraîne des risques pour les mécanismes de l’Etat de droit. La traduction des règles en code n’est en effet pas neutre : elle fige des choix d’interprétation, déplace la discrétion vers l’amont, rigidifie l’application et peut amplifier des politiques injustes ou discriminatoires à grande échelle, avec opacité et de moindres voies de recours. Il faut donc traiter l’automatisation comme un choix normatif, renforcer contrôle, transparence, voies de contestation et contre-pouvoirs. Lire la suite

Publié dans intelligence artificielle, discrimination, Libertés, droit européen | Tagué , , , , | Laisser un commentaire

L’illusion du droit low cost : pourquoi l’IA ne fera pas (nécessairement) baisser la facture

L’IA ne fera pas automatiquement baisser le coût des services juridiques. Trois freins dominent : des règles professionnelles qui limitent l’offre et créent de l’incertitude, la logique adverse qui transforme les gains de productivité en surenchère (plus d’écritures, plus de litiges), et le temps incompressible des décisions humaines (juges, parties). Des réformes ciblées sont nécessaires pour que l’IA améliore réellement l’accès au droit. Lire la suite

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , , , | Laisser un commentaire

Action publique, aide sociale et systèmes de décision algorithmique

La promesse d’harmoniser les décisions publiques par des outils algorithmiques est souvent exagérée. Dans le cas belge REDI (aide sociale), l’outil standardise certains calculs mais n’a que peu réduit les différences constatées précédemment entre communes. Les effets dépendent surtout du contexte : contraintes de financement, règles internes, et désaccords des travailleurs sociaux sur ce qui est juste. Les agents adaptent, limitent ou contournent l’outil, ce qui réduit l’harmonisation attendue. Lire la suite

Publié dans AVS et assurances sociales, droit européen, intelligence artificielle, Libertés, Protection des données | Tagué , , , | Laisser un commentaire

IA, vidéo et vérité – peut-on croire ce que l’on voit ?

La vidéo générée par l’IA affaiblit la confiance collective dans les images comme preuves. Quand tout paraît plausible, il devient plus difficile de vérifier, débattre et décider sur une base commune. La vérification dépend alors d’outils techniques surtout contrôlés par des acteurs privés, ce qui « privatise » l’autorité sur l’authenticité. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

Neuroimplants et démocratie

Les interfaces cerveau-machine invasives posent, au-delà des risques médicaux et de sécurité, une menace pour l’autonomie mentale et donc pour la démocratie. Elles touchent à l’intégrité du cerveau, rendent le consentement plus fragile (captation continue, inférences futures imprévisibles) et créent des risques de surveillance, d’autocensure et d’influence des choix, y compris politiques. Il est dès lors nécessaire d’édicter des protections juridiques spécifiques aux données neuronales et des limites strictes aux usages commerciaux qui en seraient faits. Lire la suite

Publié dans intelligence artificielle, Libertés, Techno-labrador | Tagué , , | Laisser un commentaire

Une conception pragmatique de la personnalité juridique de l’IA ?

Un article récent d’auteurs issus de Google DeepMind propose de traiter la personnalité juridique de l’IA comme un ensemble modulable de droits et d’obligations attribué pour des raisons pratiques, et non comme une qualité liée à la conscience. Cette approche sert à la fois à limiter les manipulations liées à l’anthropomorphisme et à combler les vides de responsabilité créés par des agents autonomes, en les rendant juridiquement identifiables et sanctionnables, sans leur accorder un statut équivalent à celui des humains. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire