-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: Protection de la personnalité
Lunettes de réalité augmentée et protection des données
L’essor des lunettes de réalité augmentée présente des promesses pour le quotidien, la santé, l’accessibilité et le travail. Il y a toutefois des risques majeurs : captation discrète d’images et de sons, collecte de données intimes (regard, biométrie), reconnaissance faciale, surveillance au travail, monitorage constant. Lire la suite
Données personnelles : pseudonymisation ou anonymisation?
Le Conseil d’État français, dans une décision du 13 février 2026, revient sur la pseudonymisation des données. Des données ne sont anonymes que si l’identification est pratiquement impossible au regard de moyens raisonnables (temps, coût, outils). Ici, les codes patients/clients pouvaient être « levés » car les jeux contenaient des dates (parfois heures), des variables démographiques et surtout des identifiants de prescripteurs, permettant d’individualiser des parcours de soins avec des outils simples. Les données restent donc personnelles et ne sont pas anonymes ; le RGPD s’applique. Lire la suite
L’IA dans les centres d’appel : (in)justice et management algorithmique
Les outils datafiés et d’IA dans le management algorithmique transforment des comportements complexes (ton, « empathie », rythme, conformité) en métriques servant à surveiller, classer et discipliner, ce qui intensifie le travail, accroît le stress et fragilise la solidarité. Les salariés imputent toutefois l’injustice moins à la technologie qu’à son usage managérial, au modèle économique et aux rapports de pouvoir, d’où l’idée de réguler aussi la gouvernance et les pratiques, pas seulement les systèmes. Lire la suite
L’IA qui prédit le crime avant qu’il ne se réalise?
Le commentaire de F. Palmiotto de l’art. 5 (1) (d) RIA analyse l’interdiction des systèmes d’IA qui prédisent le risque qu’une personne commette une infraction pénale sur la seule base du profilage ou de traits personnels. Cette interdiction vise à protéger la présomption d’innocence et trace une ligne claire entre prédiction abstraite de criminalité et usage de l’IA fondé sur des faits objectifs liés à une infraction concrète. Les systèmes reposant sur des soupçons raisonnables restent possibles mais sont classés à haut risque. Lire la suite
Le droit à la déconnexion et le droit à la supervision humaine comme nouveaux droits subjectifs digitaux
La numérisation et l’IA transforment l’organisation du travail, avec deux risques majeurs: l’hyper-connexion qui efface la frontière vie privée/vie professionnelle et favorise surcharge et atteintes à la santé, et l’opacité et les biais des algorithmes utilisés en RH. Il convient de reconnaître deux droits subjectifs opposables : un droit général à la déconnexion et un droit à une supervision humaine réelle des décisions ou outils algorithmiques. Lire la suite
A propos des deepfakes en politique : typologie et analyse fine
L’article de C. Walker et al. Beyond Deception: A Functional Typology of Political Deepfakes montre que les deepfakes politiques ne sont pas surtout des vidéos hyperréalistes destinées à tromper, mais une palette d’usages souvent expressifs (mèmes, parodies, contenus pro ou anti). Il propose une grille pour décrire un deepfake selon son contenu, sa fabrication, l’intention au moment du partage, la présence ou non d’un avertissement, et son mode de diffusion. Appliquée à 70 cas autour de l’élection US 2024, elle révèle surtout des images stylisées, rarement réalistes, peu divulguées et diffusées par de petits comptes. Le risque majeur peut venir d’effets cumulatifs sur la confiance. Lire la suite
Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung
Die automatisierte, KI-gestützte Personalbeschaffung kann Diskriminierungen (aufgrund von Geschlecht, Herkunft, Alter, Behinderung) reproduzieren oder verschärfen. Diese als risikoreich eingestuften Systeme unterliegen insbesondere dem Datenschutzrecht, das dem Bewerber bestimmte Rechte einräumt (Information, Widerspruch gegen eine ausschließlich automatisierte Entscheidung, erneute menschliche Überprüfung, Mitteilung der zugrunde liegenden Logik). Diese Rechte können in Rechtsstreitigkeiten geltend gemacht werden, wobei jedoch gewisse praktische Schwierigkeiten bestehen, insbesondere im Hinblick auf das Verfahrensrecht. Lire la suite
Quand la protection des données se perd dans le droit du travail
Le RGPD, pensé pour un individu proche du « consommateur moyen », se transpose mal à la relation de travail. Côté salarié, il suppose une personne autonome capable d’activer seule ses droits, alors que la subordination et la dépendance économique freinent l’exercice effectif de ces droits. Côté employeur, il suppose un responsable maître du traitement, alors que celui-ci dépend souvent de prestataires technologiques faiblement régulés. Lire la suite
Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg
En 2020, Göteborg a utilisé un algorithme pour attribuer les places scolaires, mais il a calculé les distances « à vol d’oiseau » plutôt qu’en trajet réel, dispersant des centaines d’enfants dans des écoles lointaines. Malgré des preuves d’erreur, la municipalité n’a pas corrigé la majorité des affectations, et les tribunaux n’ont pas examiné le code, faute de cadre adapté. L’affaire montre comment l’usage d’algorithmes, combiné à un droit inchangé, peut produire une injustice difficile à réparer – une injustice qui n’est que faiblement justiciable. Lire la suite
Les compétences comportementales dans l’évaluation des salariés
La Cour de cassation (15 oct. 2025, n° 22-20.716) confirme l’illicéité du dispositif d’« entretien de développement individuel » de la société Laitière de Vitré. Les critères comportementaux utilisés (« bon sens », « optimisme », « honnêteté ») sont jugés trop vagues et subjectifs, sans lien suffisant avec l’activité professionnelle. L’évaluation des salariés doit reposer sur des critères précis, objectifs et pertinents, strictement liés aux compétences professionnelles. Lire la suite
Publié dans droit français, Protection de la personnalité
Tagué 328 CO, évaluation, compétences, comportementales, critères, personnel
Laisser un commentaire