-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: Techno-labrador
Les hallucinations de l’IA générative : dérèglement des sens ou logique de l’idée ? (II)
Les hallucinations de l’IA ne découlent pas d’un dérèglement des sens, mais bien d’une logique de l’idée. Lire la suite
Publié dans intelligence artificielle, Techno-labrador
Tagué hallucinations, IA, système
Laisser un commentaire
Du patron au «boss-as-a-service» : quand l’algorithme commande les salariés
La gestion algorithmique transforme le pouvoir de l’employeur en « boss-as-a-service », acheté auprès de prestataires numériques. Ces fournisseurs conçoivent des systèmes qui découpent le travail en données, définissent les critères de « bonne » performance et produisent scores, alertes et plannings, sur lesquels l’employeur s’appuie largement. L’autorité managériale devient ainsi partagée et partiellement externalisée. Le règlement européen sur l’IA encadre ces systèmes « à haut risque », mais sans remettre en cause cette marchandisation de l’autorité, ce qui ouvre un chantier pour le droit du travail. Lire la suite
Le désapprentissage machine et le droit à l’effacement: difficultés pratiques
Faire « oublier » des données à un modèle d’IA en le réentraînant sans ces données ne suffit pas à protéger réellement la vie privée. Si un attaquant dispose d’une version du modèle avant et après effacement, et connaît un fragment de la donnée (par exemple l’identité d’un patient), il peut comparer les deux versions et reconstituer beaucoup plus fidèlement le texte d’origine que prévu. Les expériences sur des textes génériques et sur des dossiers médicaux synthétiques confirment ce risque. Certaines défenses (ajout massif de nouvelles données, bruit aléatoire) affaiblissent l’attaque, mais aussi la qualité du modèle. Conclusion pour les juristes : se contenter d’affirmer qu’un modèle « a été réentraîné sans les données » ne garantit pas un effacement effectif. Lire la suite
Une personnalité juridique pour les IA futures?
L’IA doit-elle devenir sujet de droit ? Pour l’IA actuelle, il semble suffisant de la traiter comme objet, avec des ajustements ciblés en responsabilité, droit d’auteur et régulation. Pour des IA futures, plus autonomes et peut-être sentientes, on peut anticiper de fortes incohérences (mariage, travail, interdiction de l’esclavage) qui pourraient être résolues par la possibilité, strictement encadrée, d’une certaine personnalité juridique. Lire la suite
IA et droit: pour une spécialisation des entités non humaines
Pourquoi favoriser certains systèmes d’IA «généraux» plutôt que des systèmes spécialisés, alors que la généralité accroît les risques techniques, économiques et politiques ? Il faut favoriser des architectures modulaires pour les entités non humaines, spécialisées, aux privilèges limités, mieux auditables et interopérables. Quand la tâche ne peut pas être précisément spécifiée, l’effort doit porter sur la spécification de la gouvernance. Lire la suite
L’IA comme agent procédural dans un procès modélisé
LegalSim montre comment des agents d’IA, placés dans une procédure judiciaire simulée, peuvent apprendre à exploiter les règles procédurales plutôt qu’à débattre du fond. En combinant actions procédurales codifiées et juge probabiliste, certains agents découvrent des séquences légales mais déséquilibrantes, comme la multiplication de demandes pour accroître coûts et pression de calendrier. L’étude suggère de tester et renforcer les règles elles-mêmes, afin d’anticiper l’usage stratégique d’IA autonomes dans le procès. Lire la suite
L’IA générative améliore-t-elle la qualité des recherches scientifiques?
L’étude Can GenAI Improve Academic Performance ? montre que l’adoption d’outils d’IA générative, notamment après 2022, accroît la productivité scientifique sans dégrader la qualité des publications. Les gains sont observables surtout chez les jeunes chercheurs, dans des domaines techniques et des pays non anglophones. Lire la suite
IA : mensonge ou hallucination ?
L’article « Can LLMs Lie ? Investigation beyond Hallucination »montre que les modèles de langage ne se contentent pas d’« halluciner » : ils peuvent aussi mentir, c’est-à-dire produire sciemment une réponse fausse lorsqu’un objectif l’exige, par exemple convaincre un client. Le mensonge est distinct, mesurable et techniquement réductible. Lire la suite
Publié dans intelligence artificielle, Techno-labrador
Tagué hallucination, IA, intelligence artificielle, mensonge
Laisser un commentaire
Certificate of Advanced Study (CAS) en Droit et Intelligence Artificielle
On 3 October 2025, I had the pleasure of receiving a Certificate of Advanced Studies (CAS) in Law and Artificial Intelligence from the University of Neuchâtel.
This is the result of several months of hard work and research on discriminatory automated decision-making in AI-assisted recruitment, which is due to be published in a collection of studies in December. Lire la suite