-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- Conditions d'utilisation
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- droits fondamentaux
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Littérature
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Philosophie
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Robots
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: intelligence artificielle
Travailleurs de l’IA: une rémunération à la tâche ?
Application des art. 326 et 326a CO aux travailleurs de l’intelligence artificielle? Rémunération à la tâche ou à la pièce, par extension aux clics, à la notation, etc. Lire la suite
IA : la diffamation par hallucination des Large Language Models
Présentation de de L. BARNETT LIDSKY/ A. DAVES, Inevitable Errors: Defamation by Hallucination in AI Reasoning Models, qui analyse la « diffamation par hallucination » générée par les modèles d’IA, en partant de l’affaire Walters v. OpenAI. Les auteurs soulignent que ces erreurs sont inévitables mais parfois utiles, et qu’il faut adapter le droit sans étouffer le médium. Ils proposent d’assimiler les fournisseurs d’IA à des « distributeurs » plutôt qu’à des éditeurs, de leur imposer des devoirs d’information et de conservation limitée des logs, et de responsabiliser surtout les utilisateurs qui relaient sans vérifier. L’objectif est d’indemniser les torts prouvés tout en préservant l’innovation et la transparence. Lire la suite
L’avocat et le risque de l’intelligence artificielle cachée
Une avocate américaine a été lourdement sanctionnée pour avoir soumis en procédure un mémoire rédigé par un sous-traitant externe mais signé par elle et qui contenant de nombreuses hallucinations générées par l’usage de l’IA. En vertu de la 11e FRCP, l’avocat doit vérifier ce qu’il signe et produit, il ne peut pas simplement se contenter d’informer ses sous-traitants sur les risques de l’usage de l’IA. Lire la suite
L’introduction de l’intelligence artificielle générative dans l’économie et ses effets
Le rapport MIT State of AI in Business 2025 révèle une fracture nette : 95 % des projets GenAI stagnent en pilotes sans effet, tandis qu’une minorité capte des gains massifs grâce à des systèmes apprenants, intégrés et centrés sur les processus. Côté emploi, l’impact reste ciblé : automatisation du support, du codage ou de tâches administratives, sans licenciements généralisés mais avec une réduction des besoins en sous-traitance. Lire la suite
Mémorisation et droit d’auteur dans les modèles d’IA
Présentation de la notion de « mémorisation » dans l’IA générative et de ses implications en droit d’auteur. Distinction entre régurgitation, extraction et reconstruction. Les modèles ne sont pas de simples outils neutres : ils contiennent des reproductions potentielles. Lire la suite
Intelligence artificielle et effondrement du droit
L’effondrement doctrinal inter-régime désigne la situation où deux régimes de droit distincts, chacun avec sa logique propre, en viennent à se chevaucher sur le même objet – en l’occurrence les données – jusqu’à perdre leur lisibilité et leur cohérence. L’intelligence artificielle agit comme un catalyseur de cette instabilité, car elle dépend massivement de l’accès aux données, qui se trouvent régies simultanément par le droit d’auteur et par le droit de la protection des données. Lire la suite
Pollution de la recherche comportementale en ligne par les modèles de langage
La pollution de la recherche comportementale en ligne désigne les situations où des participants, censés répondre à des études destinées à évaluer la cognition et le comportement humains, recourent à des modèles d’intelligence artificielle pour traduire, reformuler, générer ou même déléguer entièrement leurs réponses. Lire la suite
Taxinomie des difficultés rencontrées par les Multi-Agent LLM Systems (MAS)
Beaucoup d’échecs des Multi-Agent LLM Systems (MAS) semblent imputables à la conception du système, non aux seules limites du LLM. Améliorer le modèle aide, mais ne remplace pas une architecture réfléchie. L’analogie avec les organisations humaines est explicite : même des individus compétents échouent si la structure collective est mal conçue. Lire la suite
Musique, intelligence artificielle et Large Language Models
A l’ère de l’intelligence artificielle générative et des grands modèles de langage appliqués à la musique, les systèmes peuvent composer des mélodies, écrire des paroles, transposer un morceau dans un autre style, ou imiter la « patte » d’un artiste. La créativité non humaine devient une réalité concurrente à celle des auteurs humains. Trois grandes questions : Peut-on légalement utiliser des catalogues musicaux protégés pour entraîner ces modèles ? Les morceaux produits peuvent-ils violer des droits d’auteur existants ? Peut-on protéger, par le droit d’auteur, une œuvre créée par une machine ? Lire la suite
Publié dans droit d'auteur, intelligence artificielle
Tagué AI, IA, intelligence artificielle, Large Language Models, musique
Laisser un commentaire
Gouvernance des données et rapports de travail
L’essai de Veena Dubal propose une critique des « lois de la donnée » appliquées au travail. Il ne rejette ni la transparence ni l’évaluation d’impact ; il en expose les limites intrinsèques dans un univers de subordination juridique et d’algorithmes relationnels et évolutifs. Que faire ? Transformer des droits procéduraux en obligations positives pour les employeurs-déployeurs ; élargir la définition et l’utilisabilité des données ; et, surtout, réintroduire des interdictions matérielles centrées sur les effets — rémunération imprévisible, intensification délétère, évaluations opaques, ruptures automatisées — afin de réaligner le gouvernement numérique du travail avec les finalités propres au droit du travail : sécurité, prévisibilité, dignité. Lire la suite