-
Articles récents
- Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle
- Protection des données, IA et silent updates
- Dépasser l’équité algorithmique
- Discriminatory automated recruitment assisted by artificial intelligence (AI)
- Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Tag Archives: protection des données
Protection des données, IA et silent updates
Les « silent updates » sont des mises à jour téléchargées et installées en arrière-plan, souvent sans action de ou notification immédiate à l’utilisateur. Elles réduisent le délai d’application des correctifs de sécurité, évitent les reports par l’utilisateur et limitent les interruptions. Cela pose toutefois des risques évidents de transparence, d’adaptabilité et de compliance, notamment quand elles concernent des changements de comportement des systèmes d’IA. Lire la suite
Quand la protection des données se perd dans le droit du travail
Le RGPD, pensé pour un individu proche du « consommateur moyen », se transpose mal à la relation de travail. Côté salarié, il suppose une personne autonome capable d’activer seule ses droits, alors que la subordination et la dépendance économique freinent l’exercice effectif de ces droits. Côté employeur, il suppose un responsable maître du traitement, alors que celui-ci dépend souvent de prestataires technologiques faiblement régulés. Lire la suite
Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg
En 2020, Göteborg a utilisé un algorithme pour attribuer les places scolaires, mais il a calculé les distances « à vol d’oiseau » plutôt qu’en trajet réel, dispersant des centaines d’enfants dans des écoles lointaines. Malgré des preuves d’erreur, la municipalité n’a pas corrigé la majorité des affectations, et les tribunaux n’ont pas examiné le code, faute de cadre adapté. L’affaire montre comment l’usage d’algorithmes, combiné à un droit inchangé, peut produire une injustice difficile à réparer – une injustice qui n’est que faiblement justiciable. Lire la suite
L’IA peut-elle désapprendre ce qu’elle a appris ? Le désapprentissage machine
L’article de A. Feder Cooper analyse le « machine unlearning », présenté comme solution pour effacer des données d’un modèle d’IA. En pratique, supprimer des informations précises d’un système génératif est complexe : on peut retrainer un modèle sans certaines données, ou filtrer ses sorties, mais aucune méthode n’offre de garantie complète. Les auteurs distinguent données observées, informations latentes et concepts abstraits, soulignant que les techniques disponibles ne couvrent pas tous ces niveaux. Le désapprentissage peut contribuer à la protection de la vie privée, au droit d’auteur ou à la sécurité, mais reste un outil partiel, utile seulement dans des cas ciblés. Lire la suite
Droit d’accès de l’employé à une enquête interne le concernant
Conditions et restrictions du droit d’accès de l’employé à un rapport d’enquête interne le concernant (art. 328b CO; 25-26 LPD) Lire la suite
Droit à l’obscurité et interdiction de la reconnaissance faciale
W. Hartzog/E. Selinger /J. Hyojoo Rhee, Normalizing Facial Recognition Technology and The End of Obscurity soutiennent que la reconnaissance faciale n’est pas un outil ordinaire mais le plus dangereux instrument de surveillance jamais conçu. Elle repose sur des données omniprésentes et permet une identification massive, instantanée et bon marché. Même ses usages anodins conduisent à une banalisation insidieuse qui détruit l’«obscurité ». Le droit renforce cette normalisation. Les garde-fous procéduraux ou les interdictions partielles sont jugés inefficaces. Reste l’interdiction. Lire la suite
Droit d’accès au dossier : exception en cas d’évaluation d’un dossier de candidature par des pairs (peer review)
L’accès à son dossier dossier d’une candidate à un poste de professeur à l’EPFL est garanti, mais ne couvre pas les évaluations de sa candidature par des pairs (peer review). Lire la suite
Publié dans nouvelle LPD, Protection des données
Tagué accès, données, EPFL, exceptions, LPD, peer review, protection des données
Laisser un commentaire
Gouvernance des données et rapports de travail
L’essai de Veena Dubal propose une critique des « lois de la donnée » appliquées au travail. Il ne rejette ni la transparence ni l’évaluation d’impact ; il en expose les limites intrinsèques dans un univers de subordination juridique et d’algorithmes relationnels et évolutifs. Que faire ? Transformer des droits procéduraux en obligations positives pour les employeurs-déployeurs ; élargir la définition et l’utilisabilité des données ; et, surtout, réintroduire des interdictions matérielles centrées sur les effets — rémunération imprévisible, intensification délétère, évaluations opaques, ruptures automatisées — afin de réaligner le gouvernement numérique du travail avec les finalités propres au droit du travail : sécurité, prévisibilité, dignité. Lire la suite
IA, Large Language Models (LLMs) et protection des données
La plupart des études sur la protection des données en lien avec les LLMs se concentre sur les données d’entraînement. Or la question se pose aussi avec les prompts (regurgitation), avec l’output et avec les agents. Présentation d’une recherche qui examine tout le cycle. Lire la suite