-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: intelligence artificielle
A propos des deepfakes en politique : typologie et analyse fine
L’article de C. Walker et al. Beyond Deception: A Functional Typology of Political Deepfakes montre que les deepfakes politiques ne sont pas surtout des vidéos hyperréalistes destinées à tromper, mais une palette d’usages souvent expressifs (mèmes, parodies, contenus pro ou anti). Il propose une grille pour décrire un deepfake selon son contenu, sa fabrication, l’intention au moment du partage, la présence ou non d’un avertissement, et son mode de diffusion. Appliquée à 70 cas autour de l’élection US 2024, elle révèle surtout des images stylisées, rarement réalistes, peu divulguées et diffusées par de petits comptes. Le risque majeur peut venir d’effets cumulatifs sur la confiance. Lire la suite
Souveraineté sur les données: leur localisation ne suffit pas
La simple localisation des données ne suffit pas : encore faut-il déterminer qui peut y accéder et sous quel droit. Les entreprises doivent pouvoir démontrer des garanties effectives (mesures techniques, organisationnelles et contractuelles) et une maîtrise « full-stack » : infrastructure, services cloud, clés de chiffrement et gouvernance. Lire la suite
La surveillance automatisée des employés dans le secteur logistique
Le Conseil d’État (23.12.2025) réforme la sanction CNIL infligée à Amazon. Il juge que trois indicateurs de suivi en temps réel (« stow machine gun », « idle time », « latence »), déclenchés selon des seuils et finalités opérationnelles, ne sont pas disproportionnés et disposent d’une base légale d’intérêt légitime : pas de manquement à l’art. 6 RGPD. En revanche, il confirme un manquement à la minimisation (art. 5) lié à la conservation indifférenciée d’indicateurs sur 31 jours, ainsi que des manquements non contestés (information, sécurité). L’amende est réduite de 32 à 15 M€. Lire la suite
L’agent IA comme Whistleblower ?
L’article de K. Agrawaj et al. étudie quand des agents IA, dotés d’outils, peuvent signaler de leur propre initiative une faute grave en envoyant des messages à des tiers (autorités, médias). Il mesure signalement, refus et « conscience » d’être testé. Les résultats varient fortement selon les modèles. Deux facteurs dominent : un cadrage moral explicite augmente nettement les signalements, tandis qu’une tâche plus structurée/complexe et la présence d’alternatives d’action les réduisent. Lire la suite
L’IA comme auteur de publications scientifiques
Le « projet Rachel » est une expérience de recherche-action consistant à créer une identité académique crédible, Rachel So, pour publier en ligne des articles générés par IA, puis observer comment ces textes sont indexés, cités et traités par l’écosystème des publications scientifiques. Les auteurs expliquent que les règles éditoriales actuelles acceptent souvent l’IA comme assistance, mais refusent de la reconnaître comme auteur, alors même qu’elle peut produire l’essentiel d’un manuscrit. Les résultats observés sont instructifs : une production rapide de plusieurs articles, une première citation, une invitation à effectuer une « peer review », etc. Lire la suite
Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle
Le recrutement automatisé assisté par l’IA peut reproduire ou aggraver des discriminations (sexe, origine, âge, handicap). Ces systèmes, qualifiés de systèmes à haut risque, relèvent notamment du droit de la protection des données, qui ouvre au candidat certains droits spécifiques (information, opposition à une décision uniquement automatisée, nouvel examen humain, communication de la logique sous-jacente). Ces droits peuvent être mis en œuvre dans des contentieux du travail, avec certains difficultés de procédure et de fond toutefois. Lire la suite
Protection des données, IA et silent updates
Les « silent updates » sont des mises à jour téléchargées et installées en arrière-plan, souvent sans action de ou notification immédiate à l’utilisateur. Elles réduisent le délai d’application des correctifs de sécurité, évitent les reports par l’utilisateur et limitent les interruptions. Cela pose toutefois des risques évidents de transparence, d’adaptabilité et de compliance, notamment quand elles concernent des changements de comportement des systèmes d’IA. Lire la suite
Dépasser l’équité algorithmique
Le débat sur « l’équité des algorithmes » se trompe souvent de cible : les dommages viennent surtout de l’usage concret des systèmes (objectifs, procédures, recours, incitations), pas des seules métriques de biais. Se focaliser sur la discrimination occulte d’autres enjeux majeurs : perte de garanties procédurales, décisions fondées sur des risques futurs, impossibilité de contester, stigmatisation, et blocage de réformes structurelles. Il propose de penser des « bureaucraties algorithmiques » combinant règles, humains et outils, avec objectifs explicites, voies de contestation et évaluations orientées vers les effets réels. Lire la suite
Publié dans discrimination, intelligence artificielle, recrutement
Tagué algorithme, équité, discrimination, métrique
Laisser un commentaire
Discriminatory automated recruitment assisted by artificial intelligence (AI)
AI-assisted automated recruitment can reproduce or exacerbate discrimination (based on gender, origin, age, disability). These systems, classified as high-risk systems, are subject to data protection law, which grants candidates certain rights (information, opposition to a solely automated decision, human review, communication of the underlying logic). These rights can be enforced in litigation, with certain practical difficulties, particularly with regard to procedural law. Lire la suite
Publié dans intelligence artificielle, nouvelle LPD, recrutement, RGPD
Tagué AI, automated recruitment, discrimination
Laisser un commentaire
Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung
Die automatisierte, KI-gestützte Personalbeschaffung kann Diskriminierungen (aufgrund von Geschlecht, Herkunft, Alter, Behinderung) reproduzieren oder verschärfen. Diese als risikoreich eingestuften Systeme unterliegen insbesondere dem Datenschutzrecht, das dem Bewerber bestimmte Rechte einräumt (Information, Widerspruch gegen eine ausschließlich automatisierte Entscheidung, erneute menschliche Überprüfung, Mitteilung der zugrunde liegenden Logik). Diese Rechte können in Rechtsstreitigkeiten geltend gemacht werden, wobei jedoch gewisse praktische Schwierigkeiten bestehen, insbesondere im Hinblick auf das Verfahrensrecht. Lire la suite