-
Articles récents
- In Memoriam José van Dam (1940-2026)
- Lunettes de réalité augmentée et protection des données
- Données personnelles : pseudonymisation ou anonymisation?
- Détection de l’usage de l’IA dans un mémoire de master (II)
- Régulation algorithmique et affaiblissement de l’Etat de droit – à propos de l’algorithmic rule by law
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: intelligence artificielle
Lunettes de réalité augmentée et protection des données
L’essor des lunettes de réalité augmentée présente des promesses pour le quotidien, la santé, l’accessibilité et le travail. Il y a toutefois des risques majeurs : captation discrète d’images et de sons, collecte de données intimes (regard, biométrie), reconnaissance faciale, surveillance au travail, monitorage constant. Lire la suite
Données personnelles : pseudonymisation ou anonymisation?
Le Conseil d’État français, dans une décision du 13 février 2026, revient sur la pseudonymisation des données. Des données ne sont anonymes que si l’identification est pratiquement impossible au regard de moyens raisonnables (temps, coût, outils). Ici, les codes patients/clients pouvaient être « levés » car les jeux contenaient des dates (parfois heures), des variables démographiques et surtout des identifiants de prescripteurs, permettant d’individualiser des parcours de soins avec des outils simples. Les données restent donc personnelles et ne sont pas anonymes ; le RGPD s’applique. Lire la suite
Détection de l’usage de l’IA dans un mémoire de master (II)
Pour qu’une Université entende sanctionner une étudiante pour usage de l’IA dans son mémoire de master, encore faudrait-il que ladite Université produise à la procédure les règles internes qu’elle aurait édicté sur cette question et qui n’auraient pas été respectées. (Référé) Lire la suite
Publié dans droit français, intelligence artificielle
Tagué mémoire de master, règles internes, référé, sanction, université
Laisser un commentaire
Régulation algorithmique et affaiblissement de l’Etat de droit – à propos de l’algorithmic rule by law
Lorsque l’administration applique le droit via des systèmes algorithmiques, cela entraîne des risques pour les mécanismes de l’Etat de droit. La traduction des règles en code n’est en effet pas neutre : elle fige des choix d’interprétation, déplace la discrétion vers l’amont, rigidifie l’application et peut amplifier des politiques injustes ou discriminatoires à grande échelle, avec opacité et de moindres voies de recours. Il faut donc traiter l’automatisation comme un choix normatif, renforcer contrôle, transparence, voies de contestation et contre-pouvoirs. Lire la suite
L’illusion du droit low cost : pourquoi l’IA ne fera pas (nécessairement) baisser la facture
L’IA ne fera pas automatiquement baisser le coût des services juridiques. Trois freins dominent : des règles professionnelles qui limitent l’offre et créent de l’incertitude, la logique adverse qui transforme les gains de productivité en surenchère (plus d’écritures, plus de litiges), et le temps incompressible des décisions humaines (juges, parties). Des réformes ciblées sont nécessaires pour que l’IA améliore réellement l’accès au droit. Lire la suite
Action publique, aide sociale et systèmes de décision algorithmique
La promesse d’harmoniser les décisions publiques par des outils algorithmiques est souvent exagérée. Dans le cas belge REDI (aide sociale), l’outil standardise certains calculs mais n’a que peu réduit les différences constatées précédemment entre communes. Les effets dépendent surtout du contexte : contraintes de financement, règles internes, et désaccords des travailleurs sociaux sur ce qui est juste. Les agents adaptent, limitent ou contournent l’outil, ce qui réduit l’harmonisation attendue. Lire la suite
IA, vidéo et vérité – peut-on croire ce que l’on voit ?
La vidéo générée par l’IA affaiblit la confiance collective dans les images comme preuves. Quand tout paraît plausible, il devient plus difficile de vérifier, débattre et décider sur une base commune. La vérification dépend alors d’outils techniques surtout contrôlés par des acteurs privés, ce qui « privatise » l’autorité sur l’authenticité. Lire la suite
Publié dans Deepfakes, intelligence artificielle, Techno-labrador
Tagué deepfake, IA, vérification, Vidéo
Laisser un commentaire
Neuroimplants et démocratie
Les interfaces cerveau-machine invasives posent, au-delà des risques médicaux et de sécurité, une menace pour l’autonomie mentale et donc pour la démocratie. Elles touchent à l’intégrité du cerveau, rendent le consentement plus fragile (captation continue, inférences futures imprévisibles) et créent des risques de surveillance, d’autocensure et d’influence des choix, y compris politiques. Il est dès lors nécessaire d’édicter des protections juridiques spécifiques aux données neuronales et des limites strictes aux usages commerciaux qui en seraient faits. Lire la suite
Publié dans intelligence artificielle, Libertés, Techno-labrador
Tagué démocratie, neuroimplants, Privacy
Laisser un commentaire
Une conception pragmatique de la personnalité juridique de l’IA ?
Un article récent d’auteurs issus de Google DeepMind propose de traiter la personnalité juridique de l’IA comme un ensemble modulable de droits et d’obligations attribué pour des raisons pratiques, et non comme une qualité liée à la conscience. Cette approche sert à la fois à limiter les manipulations liées à l’anthropomorphisme et à combler les vides de responsabilité créés par des agents autonomes, en les rendant juridiquement identifiables et sanctionnables, sans leur accorder un statut équivalent à celui des humains. Lire la suite
IA : que fait-elle quand ses sources se contredisent ?
Dans des conflits factuels contrôlés, quelles sources un LLM privilégie-t-il en cas de contradictions ? Les modèles suivent en général une hiérarchie stable (administration puis presse, avant individus et réseaux sociaux) et favorisent les sources « populaires ». Mais ils sont très sensibles à la répétition : une information moins fiable répétée peut l’emporter sur une source plus crédible. Des consignes et un léger ajustement réduisent ce biais, sans l’annuler totalement. Lire la suite