Category Archives: intelligence artificielle

Promesses de l’IA et risques invisibles : quand les gains de productivité fragilisent les travailleurs

L’IA améliore souvent la performance à court terme mais peut, sans alerte visible, éroder compétences, vigilance et identité professionnelle : c’est le paradoxe de l’IA amplificatrice. Étude d’un an en radio-oncologie : gains de vitesse et de qualité puis dépendance, baisse de jugement autonome et fragilisation de la résilience. Les auteurs proposent une conception centrée sur la dignité via une « transparence sociale » et une « immunité sociotechnique » : détecter tôt les dérives, les contenir (revues, pauses) et restaurer les compétences. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’IA et le paradoxe de Moravec

Selon le paradoxe de Moravec, il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour cette même IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). Cette formule, souvent répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non. Elle procure également un faux sentiment de sécurité. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’IA qui prédit le crime avant qu’il ne se réalise?

Le commentaire de F. Palmiotto de l’art. 5 (1) (d) RIA analyse l’interdiction des systèmes d’IA qui prédisent le risque qu’une personne commette une infraction pénale sur la seule base du profilage ou de traits personnels. Cette interdiction vise à protéger la présomption d’innocence et trace une ligne claire entre prédiction abstraite de criminalité et usage de l’IA fondé sur des faits objectifs liés à une infraction concrète. Les systèmes reposant sur des soupçons raisonnables restent possibles mais sont classés à haut risque. Lire la suite

Publié dans discrimination, droit européen, Droit pénal, intelligence artificielle, Protection de la personnalité | Laisser un commentaire

Réseaux sociaux et liberté d’expression : le tuyau, l’éditeur et le temps d’attention

Les réseaux sociaux ne sont plus surtout des « réseaux d’amis », mais bien des flux de contenus recommandés pour maximiser le temps passé et la publicité, comme le montre FTC v. Meta. Cela affaiblit l’analogie entre le réseau et un « conduit neutre » et rend discutable l’assimilation totale du réseau à un « éditeur ». L’optimisation algorithmique doit donc être analysée comme une conduite commerciale, plus facilement régulable sur le plan constitutionnel (transparence, choix utilisateur, encadrement de certaines fonctionnalités), et ce sans viser le contenu. Lire la suite

Publié dans Droit US, intelligence artificielle, liberté d'expression, réseaux sociaux | Tagué , , , , | Laisser un commentaire

Les IA de transcription : problèmes, problèmes et problèmes

L’article d’A. Swaner, AI Note-Takers, Wiretap Laws, and the Next Wave of Privacy Class Actions, montre que les assistants de prise de notes par IA, devenus banals dans les réunions en ligne, ne se limitent pas à la transcription: ils enregistrent audio, images, métadonnées et parfois empreintes vocales, puis transmettent ces données aux fournisseurs pour entraîner leurs modèles. Ces données conversationnelles, très précieuses et difficiles à anonymiser, sont souvent collectées sans consentement clair de tous les participants, ce qui alimente des actions collectives fondées sur les lois américaines d’écoutes et de protection biométrique. L’auteure met en garde contre la banalisation de ces outils et leurs risques. Lire la suite

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , | Laisser un commentaire

L’utilisation de l’IA générative par le juge : exemple pratique

Dans le cadre d’un procès volumineux, comment l’IA générative peut-elle aider un juge à retrouver rapidement des pièces, synthétiser des transcriptions et produire des brouillons de constatations de faits ? Exemple pratique au Texas. Lire la suite

Publié dans Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Les outils IA de traduction dans le secteur de la santé

L’étude de H. van Kolschooten et al, Legal, ethical, and policy challenges of artificial intelligence translation tools in healthcare, analyse l’usage d’outils de traduction IA (Google Translate, ChatGPT) dans le secteur de la santé. Elle relève des risques majeurs : confidentialité des données de santé, traductions inexactes compromettant information et consentement, inégalités selon les langues et accents, et flou sur la responsabilité en cas de dommage. Le droit européen (RGPD, MDR, AI Act) protège partiellement car ces outils généralistes échappent souvent aux règles des dispositifs médicaux. Les auteurs prônent une gouvernance stricte : usage proportionné, vérification humaine, formation, et solutions mieux maîtrisées. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Utiliser des IA de transcription pour enregistrer et résumer les échanges entre l’avocat et son client ?

Le Comité d’éthique professionnelle du barreau de NY a publié une « opinion » traitant de l’impact des règles de déontologie professionnelle sur les appels audio et vidéo entre les avocats et leurs clients, lorsque l’avocat ou le client souhaite utiliser un outil d’intelligence artificielle (IA) pour enregistrer, transcrire et créer un résumé de la conversation. Les avocats sont libres de choisir de ne pas utiliser l’IA pour enregistrer ces conversations, mais le fait de choisir de le faire crée d’importantes obligations éthiques. L’avis conclut qu’un avocat doit obtenir le consentement de son client avant d’enregistrer l’appel, qu’il doit déterminer si l’enregistrement, la transcription et la synthèse sont judicieux d’un point de vue tactique dans les circonstances particulières, notamment en ce qui concerne les questions de confidentialité et de privilège, et qu’il doit vérifier l’exactitude du travail produit s’il existe une possibilité que la transcription ou la synthèse soit conservée et potentiellement utilisée comme référence. Si un avocat sait qu’un client enregistre un appel à l’aide d’un outil d’IA, il doit informer le client des inconvénients d’une telle pratique. Lire la suite

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle, Protection des données | Tagué , , , , , | Laisser un commentaire

A propos des deepfakes en politique : typologie et analyse fine

L’article de C. Walker et al. Beyond Deception: A Functional Typology of Political Deepfakes montre que les deepfakes politiques ne sont pas surtout des vidéos hyperréalistes destinées à tromper, mais une palette d’usages souvent expressifs (mèmes, parodies, contenus pro ou anti). Il propose une grille pour décrire un deepfake selon son contenu, sa fabrication, l’intention au moment du partage, la présence ou non d’un avertissement, et son mode de diffusion. Appliquée à 70 cas autour de l’élection US 2024, elle révèle surtout des images stylisées, rarement réalistes, peu divulguées et diffusées par de petits comptes. Le risque majeur peut venir d’effets cumulatifs sur la confiance. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

Souveraineté sur les données: leur localisation ne suffit pas

La simple localisation des données ne suffit pas : encore faut-il déterminer qui peut y accéder et sous quel droit. Les entreprises doivent pouvoir démontrer des garanties effectives (mesures techniques, organisationnelles et contractuelles) et une maîtrise « full-stack » : infrastructure, services cloud, clés de chiffrement et gouvernance. Lire la suite

Publié dans intelligence artificielle, Protection des données, RGPD | Tagué , , , | Laisser un commentaire