Tag Archives: IA

L’illusion du droit low cost : pourquoi l’IA ne fera pas (nécessairement) baisser la facture

L’IA ne fera pas automatiquement baisser le coût des services juridiques. Trois freins dominent : des règles professionnelles qui limitent l’offre et créent de l’incertitude, la logique adverse qui transforme les gains de productivité en surenchère (plus d’écritures, plus de litiges), et le temps incompressible des décisions humaines (juges, parties). Des réformes ciblées sont nécessaires pour que l’IA améliore réellement l’accès au droit. Lire la suite

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , , , | Laisser un commentaire

IA, vidéo et vérité – peut-on croire ce que l’on voit ?

La vidéo générée par l’IA affaiblit la confiance collective dans les images comme preuves. Quand tout paraît plausible, il devient plus difficile de vérifier, débattre et décider sur une base commune. La vérification dépend alors d’outils techniques surtout contrôlés par des acteurs privés, ce qui « privatise » l’autorité sur l’authenticité. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

Une conception pragmatique de la personnalité juridique de l’IA ?

Un article récent d’auteurs issus de Google DeepMind propose de traiter la personnalité juridique de l’IA comme un ensemble modulable de droits et d’obligations attribué pour des raisons pratiques, et non comme une qualité liée à la conscience. Cette approche sert à la fois à limiter les manipulations liées à l’anthropomorphisme et à combler les vides de responsabilité créés par des agents autonomes, en les rendant juridiquement identifiables et sanctionnables, sans leur accorder un statut équivalent à celui des humains. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

IA : que fait-elle quand ses sources se contredisent ?

Dans des conflits factuels contrôlés, quelles sources un LLM privilégie-t-il en cas de contradictions ? Les modèles suivent en général une hiérarchie stable (administration puis presse, avant individus et réseaux sociaux) et favorisent les sources « populaires ». Mais ils sont très sensibles à la répétition : une information moins fiable répétée peut l’emporter sur une source plus crédible. Des consignes et un léger ajustement réduisent ce biais, sans l’annuler totalement. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

L’IA dans les centres d’appel : (in)justice et management algorithmique

Les outils datafiés et d’IA dans le management algorithmique transforment des comportements complexes (ton, « empathie », rythme, conformité) en métriques servant à surveiller, classer et discipliner, ce qui intensifie le travail, accroît le stress et fragilise la solidarité. Les salariés imputent toutefois l’injustice moins à la technologie qu’à son usage managérial, au modèle économique et aux rapports de pouvoir, d’où l’idée de réguler aussi la gouvernance et les pratiques, pas seulement les systèmes. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , | Laisser un commentaire

Promesses de l’IA et risques invisibles : quand les gains de productivité fragilisent les travailleurs

L’IA améliore souvent la performance à court terme mais peut, sans alerte visible, éroder compétences, vigilance et identité professionnelle : c’est le paradoxe de l’IA amplificatrice. Étude d’un an en radio-oncologie : gains de vitesse et de qualité puis dépendance, baisse de jugement autonome et fragilisation de la résilience. Les auteurs proposent une conception centrée sur la dignité via une « transparence sociale » et une « immunité sociotechnique » : détecter tôt les dérives, les contenir (revues, pauses) et restaurer les compétences. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’IA et le paradoxe de Moravec

Selon le paradoxe de Moravec, il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour cette même IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). Cette formule, souvent répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non. Elle procure également un faux sentiment de sécurité. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

Le droit à la déconnexion et le droit à la supervision humaine comme nouveaux droits subjectifs digitaux

La numérisation et l’IA transforment l’organisation du travail, avec deux risques majeurs: l’hyper-connexion qui efface la frontière vie privée/vie professionnelle et favorise surcharge et atteintes à la santé, et l’opacité et les biais des algorithmes utilisés en RH. Il convient de reconnaître deux droits subjectifs opposables : un droit général à la déconnexion et un droit à une supervision humaine réelle des décisions ou outils algorithmiques. Lire la suite

Publié dans discrimination, Droit collectif du travail, Fonction publique, Interprétation du contrat, Protection de la personnalité, RGPD | Tagué , , , , , | Laisser un commentaire

Les IA de transcription : problèmes, problèmes et problèmes

L’article d’A. Swaner, AI Note-Takers, Wiretap Laws, and the Next Wave of Privacy Class Actions, montre que les assistants de prise de notes par IA, devenus banals dans les réunions en ligne, ne se limitent pas à la transcription: ils enregistrent audio, images, métadonnées et parfois empreintes vocales, puis transmettent ces données aux fournisseurs pour entraîner leurs modèles. Ces données conversationnelles, très précieuses et difficiles à anonymiser, sont souvent collectées sans consentement clair de tous les participants, ce qui alimente des actions collectives fondées sur les lois américaines d’écoutes et de protection biométrique. L’auteure met en garde contre la banalisation de ces outils et leurs risques. Lire la suite

Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle | Tagué , | Laisser un commentaire

L’utilisation de l’IA générative par le juge : exemple pratique

Dans le cadre d’un procès volumineux, comment l’IA générative peut-elle aider un juge à retrouver rapidement des pièces, synthétiser des transcriptions et produire des brouillons de constatations de faits ? Exemple pratique au Texas. Lire la suite

Publié dans Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire