Category Archives: intelligence artificielle

IA : que fait-elle quand ses sources se contredisent ?

Dans des conflits factuels contrôlés, quelles sources un LLM privilégie-t-il en cas de contradictions ? Les modèles suivent en général une hiérarchie stable (administration puis presse, avant individus et réseaux sociaux) et favorisent les sources « populaires ». Mais ils sont très sensibles à la répétition : une information moins fiable répétée peut l’emporter sur une source plus crédible. Des consignes et un léger ajustement réduisent ce biais, sans l’annuler totalement. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

L’IA dans les centres d’appel : (in)justice et management algorithmique

Les outils datafiés et d’IA dans le management algorithmique transforment des comportements complexes (ton, « empathie », rythme, conformité) en métriques servant à surveiller, classer et discipliner, ce qui intensifie le travail, accroît le stress et fragilise la solidarité. Les salariés imputent toutefois l’injustice moins à la technologie qu’à son usage managérial, au modèle économique et aux rapports de pouvoir, d’où l’idée de réguler aussi la gouvernance et les pratiques, pas seulement les systèmes. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , | Laisser un commentaire

Promesses de l’IA et risques invisibles : quand les gains de productivité fragilisent les travailleurs

L’IA améliore souvent la performance à court terme mais peut, sans alerte visible, éroder compétences, vigilance et identité professionnelle : c’est le paradoxe de l’IA amplificatrice. Étude d’un an en radio-oncologie : gains de vitesse et de qualité puis dépendance, baisse de jugement autonome et fragilisation de la résilience. Les auteurs proposent une conception centrée sur la dignité via une « transparence sociale » et une « immunité sociotechnique » : détecter tôt les dérives, les contenir (revues, pauses) et restaurer les compétences. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’IA et le paradoxe de Moravec

Selon le paradoxe de Moravec, il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour cette même IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). Cette formule, souvent répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non. Elle procure également un faux sentiment de sécurité. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’IA qui prédit le crime avant qu’il ne se réalise?

Le commentaire de F. Palmiotto de l’art. 5 (1) (d) RIA analyse l’interdiction des systèmes d’IA qui prédisent le risque qu’une personne commette une infraction pénale sur la seule base du profilage ou de traits personnels. Cette interdiction vise à protéger la présomption d’innocence et trace une ligne claire entre prédiction abstraite de criminalité et usage de l’IA fondé sur des faits objectifs liés à une infraction concrète. Les systèmes reposant sur des soupçons raisonnables restent possibles mais sont classés à haut risque. Lire la suite

Publié dans discrimination, droit européen, Droit pénal, intelligence artificielle, Protection de la personnalité | Laisser un commentaire

Réseaux sociaux et liberté d’expression : le tuyau, l’éditeur et le temps d’attention

Les réseaux sociaux ne sont plus surtout des « réseaux d’amis », mais bien des flux de contenus recommandés pour maximiser le temps passé et la publicité, comme le montre FTC v. Meta. Cela affaiblit l’analogie entre le réseau et un « conduit neutre » et rend discutable l’assimilation totale du réseau à un « éditeur ». L’optimisation algorithmique doit donc être analysée comme une conduite commerciale, plus facilement régulable sur le plan constitutionnel (transparence, choix utilisateur, encadrement de certaines fonctionnalités), et ce sans viser le contenu. Lire la suite

Publié dans Droit US, intelligence artificielle, liberté d'expression, réseaux sociaux | Tagué , , , , | Laisser un commentaire

Les IA de transcription : problèmes, problèmes et problèmes

L’article d’A. Swaner, AI Note-Takers, Wiretap Laws, and the Next Wave of Privacy Class Actions, montre que les assistants de prise de notes par IA, devenus banals dans les réunions en ligne, ne se limitent pas à la transcription: ils enregistrent audio, images, métadonnées et parfois empreintes vocales, puis transmettent ces données aux fournisseurs pour entraîner leurs modèles. Ces données conversationnelles, très précieuses et difficiles à anonymiser, sont souvent collectées sans consentement clair de tous les participants, ce qui alimente des actions collectives fondées sur les lois américaines d’écoutes et de protection biométrique. L’auteure met en garde contre la banalisation de ces outils et leurs risques. Lire la suite

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , | Laisser un commentaire

L’utilisation de l’IA générative par le juge : exemple pratique

Dans le cadre d’un procès volumineux, comment l’IA générative peut-elle aider un juge à retrouver rapidement des pièces, synthétiser des transcriptions et produire des brouillons de constatations de faits ? Exemple pratique au Texas. Lire la suite

Publié dans Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Les outils IA de traduction dans le secteur de la santé

L’étude de H. van Kolschooten et al, Legal, ethical, and policy challenges of artificial intelligence translation tools in healthcare, analyse l’usage d’outils de traduction IA (Google Translate, ChatGPT) dans le secteur de la santé. Elle relève des risques majeurs : confidentialité des données de santé, traductions inexactes compromettant information et consentement, inégalités selon les langues et accents, et flou sur la responsabilité en cas de dommage. Le droit européen (RGPD, MDR, AI Act) protège partiellement car ces outils généralistes échappent souvent aux règles des dispositifs médicaux. Les auteurs prônent une gouvernance stricte : usage proportionné, vérification humaine, formation, et solutions mieux maîtrisées. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, RGPD | Tagué , , , , | Laisser un commentaire

Utiliser des IA de transcription pour enregistrer et résumer les échanges entre l’avocat et son client ?

Le Comité d’éthique professionnelle du barreau de NY a publié une « opinion » traitant de l’impact des règles de déontologie professionnelle sur les appels audio et vidéo entre les avocats et leurs clients, lorsque l’avocat ou le client souhaite utiliser un outil d’intelligence artificielle (IA) pour enregistrer, transcrire et créer un résumé de la conversation. Les avocats sont libres de choisir de ne pas utiliser l’IA pour enregistrer ces conversations, mais le fait de choisir de le faire crée d’importantes obligations éthiques. L’avis conclut qu’un avocat doit obtenir le consentement de son client avant d’enregistrer l’appel, qu’il doit déterminer si l’enregistrement, la transcription et la synthèse sont judicieux d’un point de vue tactique dans les circonstances particulières, notamment en ce qui concerne les questions de confidentialité et de privilège, et qu’il doit vérifier l’exactitude du travail produit s’il existe une possibilité que la transcription ou la synthèse soit conservée et potentiellement utilisée comme référence. Si un avocat sait qu’un client enregistre un appel à l’aide d’un outil d’IA, il doit informer le client des inconvénients d’une telle pratique. Lire la suite

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle, Protection des données | Tagué , , , , , | Laisser un commentaire