-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- Conditions d'utilisation
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- droits fondamentaux
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: Droit US
Après Thaler, les vraies questions du copyright face à l’IA
L’affaire Thaler ne tranche qu’un point étroit: une IA ne peut pas être un auteur en droit américain. Elle ne règle pas les cas où un humain utilise l’IA comme outil. Le vrai débat porte donc sur quatre questions: quel niveau d’intervention humaine suffit pour obtenir un copyright, comment le prouver, que valent en pratique les licences sur des contenus générés par IA, et si ces contenus peuvent malgré tout contrefaire des œuvres préexistantes. Lire la suite
L’IA qui donne des conseils juridiques individualisés
L’IA peut-elle donner des conseils juridiques individualisés ? Doit-elle le faire ? C’est l’enjeu de l’affaire Nippon Life v. OpenAI, qui relève toutefois moins du monopole de l’avocat que du droit de la responsabilité du fait d’un produit défectueux. Le problème n’est en effet pas seulement que l’IAse trompe, mais qu’elle ait été conçue sans garde-fous suffisants pour empêcher la formulation de conclusions juridiques individualisées. Une IA doit savoir refuser certaines réponses, et ne peut pas se contenter d’avertissements dans ses conditions d’utilisation. Lire la suite
Pas d’auteur humain, pas de copyright : encore Thaler v Perlmutter
Contrairement à ce qu’on lit parfois sur les réseaux sociaux, la Cour suprême des États-Unis, dans Thaler v Perlmutter, n’a pas jugé que toutes les œuvres créées par IA seraient exclues du droit d’auteur; elle a seulement refusé d’examiner le cas. La décision attaquée concernait une image revendiquée comme créée uniquement par une machine, sans apport humain. Dans ce cas, pas de copyright. En revanche, le droit américain n’exclut pas les œuvres réalisées avec l’aide d’une IA si une contribution créative humaine suffisante peut être démontrée. Lire la suite
L’illusion du droit low cost : pourquoi l’IA ne fera pas (nécessairement) baisser la facture
L’IA ne fera pas automatiquement baisser le coût des services juridiques. Trois freins dominent : des règles professionnelles qui limitent l’offre et créent de l’incertitude, la logique adverse qui transforme les gains de productivité en surenchère (plus d’écritures, plus de litiges), et le temps incompressible des décisions humaines (juges, parties). Des réformes ciblées sont nécessaires pour que l’IA améliore réellement l’accès au droit. Lire la suite
Réseaux sociaux et liberté d’expression : le tuyau, l’éditeur et le temps d’attention
Les réseaux sociaux ne sont plus surtout des « réseaux d’amis », mais bien des flux de contenus recommandés pour maximiser le temps passé et la publicité, comme le montre FTC v. Meta. Cela affaiblit l’analogie entre le réseau et un « conduit neutre » et rend discutable l’assimilation totale du réseau à un « éditeur ». L’optimisation algorithmique doit donc être analysée comme une conduite commerciale, plus facilement régulable sur le plan constitutionnel (transparence, choix utilisateur, encadrement de certaines fonctionnalités), et ce sans viser le contenu. Lire la suite
Les IA de transcription : problèmes, problèmes et problèmes
L’article d’A. Swaner, AI Note-Takers, Wiretap Laws, and the Next Wave of Privacy Class Actions, montre que les assistants de prise de notes par IA, devenus banals dans les réunions en ligne, ne se limitent pas à la transcription: ils enregistrent audio, images, métadonnées et parfois empreintes vocales, puis transmettent ces données aux fournisseurs pour entraîner leurs modèles. Ces données conversationnelles, très précieuses et difficiles à anonymiser, sont souvent collectées sans consentement clair de tous les participants, ce qui alimente des actions collectives fondées sur les lois américaines d’écoutes et de protection biométrique. L’auteure met en garde contre la banalisation de ces outils et leurs risques. Lire la suite
Publié dans Avocats (règles professionnelles), Droit US, intelligence artificielle
Tagué IA, transcription
Laisser un commentaire
L’utilisation de l’IA générative par le juge : exemple pratique
Dans le cadre d’un procès volumineux, comment l’IA générative peut-elle aider un juge à retrouver rapidement des pièces, synthétiser des transcriptions et produire des brouillons de constatations de faits ? Exemple pratique au Texas. Lire la suite
Publié dans Droit US, intelligence artificielle
Tagué IA, intelligence artificielle, juge, justice, Texas
Laisser un commentaire
Utiliser des IA de transcription pour enregistrer et résumer les échanges entre l’avocat et son client ?
Le Comité d’éthique professionnelle du barreau de NY a publié une « opinion » traitant de l’impact des règles de déontologie professionnelle sur les appels audio et vidéo entre les avocats et leurs clients, lorsque l’avocat ou le client souhaite utiliser un outil d’intelligence artificielle (IA) pour enregistrer, transcrire et créer un résumé de la conversation. Les avocats sont libres de choisir de ne pas utiliser l’IA pour enregistrer ces conversations, mais le fait de choisir de le faire crée d’importantes obligations éthiques. L’avis conclut qu’un avocat doit obtenir le consentement de son client avant d’enregistrer l’appel, qu’il doit déterminer si l’enregistrement, la transcription et la synthèse sont judicieux d’un point de vue tactique dans les circonstances particulières, notamment en ce qui concerne les questions de confidentialité et de privilège, et qu’il doit vérifier l’exactitude du travail produit s’il existe une possibilité que la transcription ou la synthèse soit conservée et potentiellement utilisée comme référence. Si un avocat sait qu’un client enregistre un appel à l’aide d’un outil d’IA, il doit informer le client des inconvénients d’une telle pratique. Lire la suite
Et si l’IA corrigeait les examens en droit ?
Un modèle de langage général, couplé à un barème détaillé, peut corriger des examens de droit presque comme un professeur. Sur quatre examens américains, les notes de l’IA sont très proches de celles des enseignants, parfois autant que deux corrections humaines entre elles. Les gains viennent surtout de barèmes précis. In ne s’agit pas de remplacer les professeurs, mais d’utiliser l’IA comme second lecteur, outil de contrôle qualité et support de retours rapides aux étudiants ou jeunes avocats. Lire la suite
Publié dans Droit US, intelligence artificielle
Tagué correction, droit, examens, IA, intelligence artificielle
Laisser un commentaire
Licencié pour avoir dénoncé des robots humanoïdes dangereux?
Selon une demande en paiement introduite en Californie, G., ingénieur sécurité, est engagé par F. AI pour sécuriser ses robots humanoïdes avec IA. Il dit découvrir de graves lacunes, documente des incidents et alerte direction, développeurs et investisseurs. Licencié peu après, il invoque les lois californiennes protégeant les lanceurs d’alerte et le licenciement abusif (congé-représailles); il réclame des dommages. Lire la suite