Category Archives: intelligence artificielle

L’IA est un perroquet stochastique qui a réussi

On devrait critiquer l’usage réflexe de l’étiquette « perroquet stochastique » pour minimiser l’impact des IA. Même sans « comprendre », ces outils automatisent déjà des tâches, deviennent des infrastructures du travail et transforment les métiers, notamment en réduisant les tâches d’entrée et en affaiblissant le pouvoir de négociation des travailleurs qualifiés. Il faut quitter le débat abstrait sur l’intelligence et se concentrer sur les effets réels de l’IA : organisation du travail, responsabilité, transparence et protections. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire

Lunettes de réalité augmentée et protection des données

L’essor des lunettes de réalité augmentée présente des promesses pour le quotidien, la santé, l’accessibilité et le travail. Il y a toutefois des risques majeurs : captation discrète d’images et de sons, collecte de données intimes (regard, biométrie), reconnaissance faciale, surveillance au travail, monitorage constant. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

Données personnelles : pseudonymisation ou anonymisation?

Le Conseil d’État français, dans une décision du 13 février 2026, revient sur la pseudonymisation des données. Des données ne sont anonymes que si l’identification est pratiquement impossible au regard de moyens raisonnables (temps, coût, outils). Ici, les codes patients/clients pouvaient être « levés » car les jeux contenaient des dates (parfois heures), des variables démographiques et surtout des identifiants de prescripteurs, permettant d’individualiser des parcours de soins avec des outils simples. Les données restent donc personnelles et ne sont pas anonymes ; le RGPD s’applique. Lire la suite

Publié dans droit européen, droit français, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , | Laisser un commentaire

Détection de l’usage de l’IA dans un mémoire de master (II)

Pour qu’une Université entende sanctionner une étudiante pour usage de l’IA dans son mémoire de master, encore faudrait-il que ladite Université produise à la procédure les règles internes qu’elle aurait édicté sur cette question et qui n’auraient pas été respectées. (Référé) Lire la suite

Publié dans droit français, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Régulation algorithmique et affaiblissement de l’Etat de droit – à propos de l’algorithmic rule by law

Lorsque l’administration applique le droit via des systèmes algorithmiques, cela entraîne des risques pour les mécanismes de l’Etat de droit. La traduction des règles en code n’est en effet pas neutre : elle fige des choix d’interprétation, déplace la discrétion vers l’amont, rigidifie l’application et peut amplifier des politiques injustes ou discriminatoires à grande échelle, avec opacité et de moindres voies de recours. Il faut donc traiter l’automatisation comme un choix normatif, renforcer contrôle, transparence, voies de contestation et contre-pouvoirs. Lire la suite

Publié dans discrimination, droit européen, intelligence artificielle, Libertés | Tagué , , , , | Laisser un commentaire

L’illusion du droit low cost : pourquoi l’IA ne fera pas (nécessairement) baisser la facture

L’IA ne fera pas automatiquement baisser le coût des services juridiques. Trois freins dominent : des règles professionnelles qui limitent l’offre et créent de l’incertitude, la logique adverse qui transforme les gains de productivité en surenchère (plus d’écritures, plus de litiges), et le temps incompressible des décisions humaines (juges, parties). Des réformes ciblées sont nécessaires pour que l’IA améliore réellement l’accès au droit. Lire la suite

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , , , | Laisser un commentaire

Action publique, aide sociale et systèmes de décision algorithmique

La promesse d’harmoniser les décisions publiques par des outils algorithmiques est souvent exagérée. Dans le cas belge REDI (aide sociale), l’outil standardise certains calculs mais n’a que peu réduit les différences constatées précédemment entre communes. Les effets dépendent surtout du contexte : contraintes de financement, règles internes, et désaccords des travailleurs sociaux sur ce qui est juste. Les agents adaptent, limitent ou contournent l’outil, ce qui réduit l’harmonisation attendue. Lire la suite

Publié dans AVS et assurances sociales, droit européen, intelligence artificielle, Libertés, Protection des données | Tagué , , , | Laisser un commentaire

IA, vidéo et vérité – peut-on croire ce que l’on voit ?

La vidéo générée par l’IA affaiblit la confiance collective dans les images comme preuves. Quand tout paraît plausible, il devient plus difficile de vérifier, débattre et décider sur une base commune. La vérification dépend alors d’outils techniques surtout contrôlés par des acteurs privés, ce qui « privatise » l’autorité sur l’authenticité. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

Neuroimplants et démocratie

Les interfaces cerveau-machine invasives posent, au-delà des risques médicaux et de sécurité, une menace pour l’autonomie mentale et donc pour la démocratie. Elles touchent à l’intégrité du cerveau, rendent le consentement plus fragile (captation continue, inférences futures imprévisibles) et créent des risques de surveillance, d’autocensure et d’influence des choix, y compris politiques. Il est dès lors nécessaire d’édicter des protections juridiques spécifiques aux données neuronales et des limites strictes aux usages commerciaux qui en seraient faits. Lire la suite

Publié dans intelligence artificielle, Libertés, Techno-labrador | Tagué , , | Laisser un commentaire

Une conception pragmatique de la personnalité juridique de l’IA ?

Un article récent d’auteurs issus de Google DeepMind propose de traiter la personnalité juridique de l’IA comme un ensemble modulable de droits et d’obligations attribué pour des raisons pratiques, et non comme une qualité liée à la conscience. Cette approche sert à la fois à limiter les manipulations liées à l’anthropomorphisme et à combler les vides de responsabilité créés par des agents autonomes, en les rendant juridiquement identifiables et sanctionnables, sans leur accorder un statut équivalent à celui des humains. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire