-
Articles récents
- Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle
- Protection des données, IA et silent updates
- Dépasser l’équité algorithmique
- Discriminatory automated recruitment assisted by artificial intelligence (AI)
- Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: Droit US
Et si l’IA corrigeait les examens en droit ?
Un modèle de langage général, couplé à un barème détaillé, peut corriger des examens de droit presque comme un professeur. Sur quatre examens américains, les notes de l’IA sont très proches de celles des enseignants, parfois autant que deux corrections humaines entre elles. Les gains viennent surtout de barèmes précis. In ne s’agit pas de remplacer les professeurs, mais d’utiliser l’IA comme second lecteur, outil de contrôle qualité et support de retours rapides aux étudiants ou jeunes avocats. Lire la suite
Publié dans Droit US, intelligence artificielle
Tagué correction, droit, examens, IA, intelligence artificielle
Laisser un commentaire
Licencié pour avoir dénoncé des robots humanoïdes dangereux?
Selon une demande en paiement introduite en Californie, G., ingénieur sécurité, est engagé par F. AI pour sécuriser ses robots humanoïdes avec IA. Il dit découvrir de graves lacunes, documente des incidents et alerte direction, développeurs et investisseurs. Licencié peu après, il invoque les lois californiennes protégeant les lanceurs d’alerte et le licenciement abusif (congé-représailles); il réclame des dommages. Lire la suite
La démission forcée en droit suisse
La démission forcée existe-t-elle en droit suisse? Comparaison avec le droit US et le droit français. Lire la suite
Intelligence artificielle et copyright: quo vadis?
Le débat sur l’IA et le droit d’auteur suit un cycle déjà observé avec Internet et le P2P : après les litiges sur l’entraînement (« inputs »), appelés à se résoudre par exceptions et licences, viendront ceux sur les résultats (« outputs »). La notion européenne de « communication au public » pourrait devenir centrale, en particulier avec la RAG, qui fournit des réponses en temps réel et peut réduire le trafic vers les sites sources. Lire la suite
Publié dans droit d'auteur, Droit US
Tagué copyright, Droit d'auteur, IA, input, intelligence artificielle, output, RAG
Laisser un commentaire
Utiliser des preuves créées ou modifiées par l’intelligence artificielle en procédure?
Un tribunal californien a radié avec préjudice une action civile après que les demandeurs ont produit des preuves falsifiées par intelligence artificielle, notamment des vidéos deepfake et des photos manipulées. Le juge a relevé l’incohérence des métadonnées et des explications données, concluant à une violation grave du Code of Civil Procedure. Lire la suite
L’IA plutôt que les travailleurs sociaux pour traiter des sans-abris ?
L’article de G. Pokharel et al., Street-Level AI : Are Large Language Models Ready for Real-World Judgements ? explore la capacité des modèles de langage à prioriser l’accès aux services publics, en particulier dans l’aide aux sans-abri. En comparant leurs décisions à celles des travailleurs sociaux et aux barèmes officiels, les auteurs révèlent une instabilité marquée, un faible alignement avec les principes de justice locale et aucune supériorité prédictive. Lire la suite
IA : la diffamation par hallucination des Large Language Models
Présentation de de L. BARNETT LIDSKY/ A. DAVES, Inevitable Errors: Defamation by Hallucination in AI Reasoning Models, qui analyse la « diffamation par hallucination » générée par les modèles d’IA, en partant de l’affaire Walters v. OpenAI. Les auteurs soulignent que ces erreurs sont inévitables mais parfois utiles, et qu’il faut adapter le droit sans étouffer le médium. Ils proposent d’assimiler les fournisseurs d’IA à des « distributeurs » plutôt qu’à des éditeurs, de leur imposer des devoirs d’information et de conservation limitée des logs, et de responsabiliser surtout les utilisateurs qui relaient sans vérifier. L’objectif est d’indemniser les torts prouvés tout en préservant l’innovation et la transparence. Lire la suite
L’avocat et le risque de l’intelligence artificielle cachée
Une avocate américaine a été lourdement sanctionnée pour avoir soumis en procédure un mémoire rédigé par un sous-traitant externe mais signé par elle et qui contenant de nombreuses hallucinations générées par l’usage de l’IA. En vertu de la 11e FRCP, l’avocat doit vérifier ce qu’il signe et produit, il ne peut pas simplement se contenter d’informer ses sous-traitants sur les risques de l’usage de l’IA. Lire la suite
Mémorisation et droit d’auteur dans les modèles d’IA
Présentation de la notion de « mémorisation » dans l’IA générative et de ses implications en droit d’auteur. Distinction entre régurgitation, extraction et reconstruction. Les modèles ne sont pas de simples outils neutres : ils contiennent des reproductions potentielles. Lire la suite
Les données des employés comme capital capté par les employeurs
Les travailleurs génèrent des données qui ont une valeur économique, d’une part en termes d’optimisation des processus employeurs, d’autre part comme données brutes pouvant être cédées à des tiers susceptibles de les exploiter. I. Ajunwa se penche sur la matière de valoriser ces données dans une optique de rééquilibrer l’asymétrie employeurs-employés. Lire la suite