Category Archives: intelligence artificielle

A propos des deepfakes en politique : typologie et analyse fine

L’article de C. Walker et al. Beyond Deception: A Functional Typology of Political Deepfakes montre que les deepfakes politiques ne sont pas surtout des vidéos hyperréalistes destinées à tromper, mais une palette d’usages souvent expressifs (mèmes, parodies, contenus pro ou anti). Il propose une grille pour décrire un deepfake selon son contenu, sa fabrication, l’intention au moment du partage, la présence ou non d’un avertissement, et son mode de diffusion. Appliquée à 70 cas autour de l’élection US 2024, elle révèle surtout des images stylisées, rarement réalistes, peu divulguées et diffusées par de petits comptes. Le risque majeur peut venir d’effets cumulatifs sur la confiance. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

Souveraineté sur les données: leur localisation ne suffit pas

La simple localisation des données ne suffit pas : encore faut-il déterminer qui peut y accéder et sous quel droit. Les entreprises doivent pouvoir démontrer des garanties effectives (mesures techniques, organisationnelles et contractuelles) et une maîtrise « full-stack » : infrastructure, services cloud, clés de chiffrement et gouvernance. Lire la suite

Publié dans intelligence artificielle, Protection des données, RGPD | Tagué , , , | Laisser un commentaire

La surveillance automatisée des employés dans le secteur logistique

Le Conseil d’État (23.12.2025) réforme la sanction CNIL infligée à Amazon. Il juge que trois indicateurs de suivi en temps réel (« stow machine gun », « idle time », « latence »), déclenchés selon des seuils et finalités opérationnelles, ne sont pas disproportionnés et disposent d’une base légale d’intérêt légitime : pas de manquement à l’art. 6 RGPD. En revanche, il confirme un manquement à la minimisation (art. 5) lié à la conservation indifférenciée d’indicateurs sur 31 jours, ainsi que des manquements non contestés (information, sécurité). L’amende est réduite de 32 à 15 M€. Lire la suite

Publié dans droit européen, droit français, intelligence artificielle, Protection des données, RGPD | Tagué , , , , , , | Laisser un commentaire

L’agent IA comme Whistleblower ?

L’article de K. Agrawaj et al. étudie quand des agents IA, dotés d’outils, peuvent signaler de leur propre initiative une faute grave en envoyant des messages à des tiers (autorités, médias). Il mesure signalement, refus et « conscience » d’être testé. Les résultats varient fortement selon les modèles. Deux facteurs dominent : un cadrage moral explicite augmente nettement les signalements, tandis qu’une tâche plus structurée/complexe et la présence d’alternatives d’action les réduisent. Lire la suite

Publié dans Avocats (règles professionnelles), intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

L’IA comme auteur de publications scientifiques

Le « projet Rachel » est une expérience de recherche-action consistant à créer une identité académique crédible, Rachel So, pour publier en ligne des articles générés par IA, puis observer comment ces textes sont indexés, cités et traités par l’écosystème des publications scientifiques. Les auteurs expliquent que les règles éditoriales actuelles acceptent souvent l’IA comme assistance, mais refusent de la reconnaître comme auteur, alors même qu’elle peut produire l’essentiel d’un manuscrit. Les résultats observés sont instructifs : une production rapide de plusieurs articles, une première citation, une invitation à effectuer une « peer review », etc. Lire la suite

Publié dans droit d'auteur, intelligence artificielle, Propriété intellectuelle | Tagué , , , | Laisser un commentaire

Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle

Le recrutement automatisé assisté par l’IA peut reproduire ou aggraver des discriminations (sexe, origine, âge, handicap). Ces systèmes, qualifiés de systèmes à haut risque, relèvent notamment du droit de la protection des données, qui ouvre au candidat certains droits spécifiques (information, opposition à une décision uniquement automatisée, nouvel examen humain, communication de la logique sous-jacente). Ces droits peuvent être mis en œuvre dans des contentieux du travail, avec certains difficultés de procédure et de fond toutefois. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , , , | Laisser un commentaire

Protection des données, IA et silent updates

Les « silent updates » sont des mises à jour téléchargées et installées en arrière-plan, souvent sans action de ou notification immédiate à l’utilisateur. Elles réduisent le délai d’application des correctifs de sécurité, évitent les reports par l’utilisateur et limitent les interruptions. Cela pose toutefois des risques évidents de transparence, d’adaptabilité et de compliance, notamment quand elles concernent des changements de comportement des systèmes d’IA. Lire la suite

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Dépasser l’équité algorithmique

Le débat sur « l’équité des algorithmes » se trompe souvent de cible : les dommages viennent surtout de l’usage concret des systèmes (objectifs, procédures, recours, incitations), pas des seules métriques de biais. Se focaliser sur la discrimination occulte d’autres enjeux majeurs : perte de garanties procédurales, décisions fondées sur des risques futurs, impossibilité de contester, stigmatisation, et blocage de réformes structurelles. Il propose de penser des « bureaucraties algorithmiques » combinant règles, humains et outils, avec objectifs explicites, voies de contestation et évaluations orientées vers les effets réels. Lire la suite

Publié dans discrimination, intelligence artificielle, recrutement | Tagué , , , | Laisser un commentaire

Discriminatory automated recruitment assisted by artificial intelligence (AI)

AI-assisted automated recruitment can reproduce or exacerbate discrimination (based on gender, origin, age, disability). These systems, classified as high-risk systems, are subject to data protection law, which grants candidates certain rights (information, opposition to a solely automated decision, human review, communication of the underlying logic). These rights can be enforced in litigation, with certain practical difficulties, particularly with regard to procedural law. Lire la suite

Publié dans intelligence artificielle, nouvelle LPD, recrutement, RGPD | Tagué , , | Laisser un commentaire

Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung

Die automatisierte, KI-gestützte Personalbeschaffung kann Diskriminierungen (aufgrund von Geschlecht, Herkunft, Alter, Behinderung) reproduzieren oder verschärfen. Diese als risikoreich eingestuften Systeme unterliegen insbesondere dem Datenschutzrecht, das dem Bewerber bestimmte Rechte einräumt (Information, Widerspruch gegen eine ausschließlich automatisierte Entscheidung, erneute menschliche Überprüfung, Mitteilung der zugrunde liegenden Logik). Diese Rechte können in Rechtsstreitigkeiten geltend gemacht werden, wobei jedoch gewisse praktische Schwierigkeiten bestehen, insbesondere im Hinblick auf das Verfahrensrecht. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection de la personnalité | Tagué , , , | Laisser un commentaire