-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: intelligence artificielle
Promesses de l’IA et risques invisibles : quand les gains de productivité fragilisent les travailleurs
L’IA améliore souvent la performance à court terme mais peut, sans alerte visible, éroder compétences, vigilance et identité professionnelle : c’est le paradoxe de l’IA amplificatrice. Étude d’un an en radio-oncologie : gains de vitesse et de qualité puis dépendance, baisse de jugement autonome et fragilisation de la résilience. Les auteurs proposent une conception centrée sur la dignité via une « transparence sociale » et une « immunité sociotechnique » : détecter tôt les dérives, les contenir (revues, pauses) et restaurer les compétences. Lire la suite
Publié dans intelligence artificielle, Techno-labrador
Tagué érosion, capacités, IA, productivité, travailleur
Laisser un commentaire
L’IA et le paradoxe de Moravec
Selon le paradoxe de Moravec, il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour cette même IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). Cette formule, souvent répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non. Elle procure également un faux sentiment de sécurité. Lire la suite
Publié dans intelligence artificielle, Techno-labrador
Tagué Arvind Narayanan, IA, intelligence artificielle, Moravec, paradoxe
Laisser un commentaire
L’IA qui prédit le crime avant qu’il ne se réalise?
Le commentaire de F. Palmiotto de l’art. 5 (1) (d) RIA analyse l’interdiction des systèmes d’IA qui prédisent le risque qu’une personne commette une infraction pénale sur la seule base du profilage ou de traits personnels. Cette interdiction vise à protéger la présomption d’innocence et trace une ligne claire entre prédiction abstraite de criminalité et usage de l’IA fondé sur des faits objectifs liés à une infraction concrète. Les systèmes reposant sur des soupçons raisonnables restent possibles mais sont classés à haut risque. Lire la suite
Réseaux sociaux et liberté d’expression : le tuyau, l’éditeur et le temps d’attention
Les réseaux sociaux ne sont plus surtout des « réseaux d’amis », mais bien des flux de contenus recommandés pour maximiser le temps passé et la publicité, comme le montre FTC v. Meta. Cela affaiblit l’analogie entre le réseau et un « conduit neutre » et rend discutable l’assimilation totale du réseau à un « éditeur ». L’optimisation algorithmique doit donc être analysée comme une conduite commerciale, plus facilement régulable sur le plan constitutionnel (transparence, choix utilisateur, encadrement de certaines fonctionnalités), et ce sans viser le contenu. Lire la suite
Les IA de transcription : problèmes, problèmes et problèmes
L’article d’A. Swaner, AI Note-Takers, Wiretap Laws, and the Next Wave of Privacy Class Actions, montre que les assistants de prise de notes par IA, devenus banals dans les réunions en ligne, ne se limitent pas à la transcription: ils enregistrent audio, images, métadonnées et parfois empreintes vocales, puis transmettent ces données aux fournisseurs pour entraîner leurs modèles. Ces données conversationnelles, très précieuses et difficiles à anonymiser, sont souvent collectées sans consentement clair de tous les participants, ce qui alimente des actions collectives fondées sur les lois américaines d’écoutes et de protection biométrique. L’auteure met en garde contre la banalisation de ces outils et leurs risques. Lire la suite
Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle
Tagué IA, transcription
Laisser un commentaire
L’utilisation de l’IA générative par le juge : exemple pratique
Dans le cadre d’un procès volumineux, comment l’IA générative peut-elle aider un juge à retrouver rapidement des pièces, synthétiser des transcriptions et produire des brouillons de constatations de faits ? Exemple pratique au Texas. Lire la suite
Publié dans Droit US, intelligence artificielle
Tagué IA, intelligence artificielle, juge, justice, Texas
Laisser un commentaire
Les outils IA de traduction dans le secteur de la santé
L’étude de H. van Kolschooten et al, Legal, ethical, and policy challenges of artificial intelligence translation tools in healthcare, analyse l’usage d’outils de traduction IA (Google Translate, ChatGPT) dans le secteur de la santé. Elle relève des risques majeurs : confidentialité des données de santé, traductions inexactes compromettant information et consentement, inégalités selon les langues et accents, et flou sur la responsabilité en cas de dommage. Le droit européen (RGPD, MDR, AI Act) protège partiellement car ces outils généralistes échappent souvent aux règles des dispositifs médicaux. Les auteurs prônent une gouvernance stricte : usage proportionné, vérification humaine, formation, et solutions mieux maîtrisées. Lire la suite
Publié dans discrimination, intelligence artificielle, Protection des données, RGPD
Tagué droit, IA, santé, soins, traduction
Laisser un commentaire
Utiliser des IA de transcription pour enregistrer et résumer les échanges entre l’avocat et son client ?
Le Comité d’éthique professionnelle du barreau de NY a publié une « opinion » traitant de l’impact des règles de déontologie professionnelle sur les appels audio et vidéo entre les avocats et leurs clients, lorsque l’avocat ou le client souhaite utiliser un outil d’intelligence artificielle (IA) pour enregistrer, transcrire et créer un résumé de la conversation. Les avocats sont libres de choisir de ne pas utiliser l’IA pour enregistrer ces conversations, mais le fait de choisir de le faire crée d’importantes obligations éthiques. L’avis conclut qu’un avocat doit obtenir le consentement de son client avant d’enregistrer l’appel, qu’il doit déterminer si l’enregistrement, la transcription et la synthèse sont judicieux d’un point de vue tactique dans les circonstances particulières, notamment en ce qui concerne les questions de confidentialité et de privilège, et qu’il doit vérifier l’exactitude du travail produit s’il existe une possibilité que la transcription ou la synthèse soit conservée et potentiellement utilisée comme référence. Si un avocat sait qu’un client enregistre un appel à l’aide d’un outil d’IA, il doit informer le client des inconvénients d’une telle pratique. Lire la suite
A propos des deepfakes en politique : typologie et analyse fine
L’article de C. Walker et al. Beyond Deception: A Functional Typology of Political Deepfakes montre que les deepfakes politiques ne sont pas surtout des vidéos hyperréalistes destinées à tromper, mais une palette d’usages souvent expressifs (mèmes, parodies, contenus pro ou anti). Il propose une grille pour décrire un deepfake selon son contenu, sa fabrication, l’intention au moment du partage, la présence ou non d’un avertissement, et son mode de diffusion. Appliquée à 70 cas autour de l’élection US 2024, elle révèle surtout des images stylisées, rarement réalistes, peu divulguées et diffusées par de petits comptes. Le risque majeur peut venir d’effets cumulatifs sur la confiance. Lire la suite
Souveraineté sur les données: leur localisation ne suffit pas
La simple localisation des données ne suffit pas : encore faut-il déterminer qui peut y accéder et sous quel droit. Les entreprises doivent pouvoir démontrer des garanties effectives (mesures techniques, organisationnelles et contractuelles) et une maîtrise « full-stack » : infrastructure, services cloud, clés de chiffrement et gouvernance. Lire la suite