Category Archives: intelligence artificielle

IA et droit: pour une spécialisation des entités non humaines

Pourquoi favoriser certains systèmes d’IA «généraux» plutôt que des systèmes spécialisés, alors que la généralité accroît les risques techniques, économiques et politiques ? Il faut favoriser des architectures modulaires pour les entités non humaines, spécialisées, aux privilèges limités, mieux auditables et interopérables. Quand la tâche ne peut pas être précisément spécifiée, l’effort doit porter sur la spécification de la gouvernance. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

Discrimination algorithmique et utilisation de l’IA dans les services publics

L’IA promet efficacité et meilleure allocation des ressources publiques, mais risque aussi de reproduire ou d’accentuer des inégalités, car elle s’appuie sur des données et des choix de conception biaisés. Des exemples en Europe montrent des discriminations dans l’aide sociale et l’emploi. La transparence, la possibilité de contester les décisions automatiques individualisées et le contrôle humain demeurent donc essentiels. Lire la suite

Publié dans discrimination, Droit administratif général, Fonction publique, intelligence artificielle | Tagué , , , | Laisser un commentaire

L’IA comme agent procédural dans un procès modélisé

LegalSim montre comment des agents d’IA, placés dans une procédure judiciaire simulée, peuvent apprendre à exploiter les règles procédurales plutôt qu’à débattre du fond. En combinant actions procédurales codifiées et juge probabiliste, certains agents découvrent des séquences légales mais déséquilibrantes, comme la multiplication de demandes pour accroître coûts et pression de calendrier. L’étude suggère de tester et renforcer les règles elles-mêmes, afin d’anticiper l’usage stratégique d’IA autonomes dans le procès. Lire la suite

Publié dans Avocats (règles professionnelles), intelligence artificielle, Procédure, Techno-labrador | Tagué , , , | Laisser un commentaire

Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg

En 2020, Göteborg a utilisé un algorithme pour attribuer les places scolaires, mais il a calculé les distances « à vol d’oiseau » plutôt qu’en trajet réel, dispersant des centaines d’enfants dans des écoles lointaines. Malgré des preuves d’erreur, la municipalité n’a pas corrigé la majorité des affectations, et les tribunaux n’ont pas examiné le code, faute de cadre adapté. L’affaire montre comment l’usage d’algorithmes, combiné à un droit inchangé, peut produire une injustice difficile à réparer – une injustice qui n’est que faiblement justiciable. Lire la suite

Publié dans Droit administratif général, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , | Laisser un commentaire

Une personnalité juridique pour l’IA ?

Le rapport de l’UK Law Commission de juillet 2025 (AI and the Law) explore notamment l’idée d’accorder une personnalité juridique à certaines IA très autonomes afin de combler les lacunes de responsabilité quand aucun humain n’est clairement fautif. Une telle réforme permettrait d’imputer directement des obligations et sanctions à l’IA, mais soulève d’importants risques éthiques et pratiques. Lire la suite

Publié dans intelligence artificielle | Tagué , , , | 3 commentaires

Droit du travail et intelligence artificielle

Conférence sur le Droit et l’Intelligence Artificielle ce 13 novembre 2025 à Neuchâtel. Nous y traiterons notamment de droit du travail et d’intelligence artificielle (surveillance des salariés, recrutement automatisé, nouveaux enjeux) Lire la suite

Publié dans intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , | Laisser un commentaire

Détection de l’usage de l’IA dans un mémoire de master

Le tribunal administratif de Montreuil a confirmé (no2405656) le 08.10.2025 l’exclusion d’une étudiante pour usage d’IA dans son mémoire, tout en précisant que le rapport de détection automatique (99,2 % de probabilité) ne suffit pas seul à prouver la fraude. Il doit être apprécié dans un faisceau d’indices comprenant notamment les similitudes de structure avec un plan généré par IA, le style rédactionnel incohérent et le manque de maîtrise du contenu scientifique. Le juge valide ainsi l’usage probatoire raisonné de ces outils. Lire la suite

Publié dans droit français, intelligence artificielle, Procédure | Tagué , , , , | Laisser un commentaire

L’IA incarnée : risques et opportunités

L’intelligence artificielle incarnée (EAI) désigne des systèmes capables d’agir et d’interagir physiquement dans le monde réel. Elle promet des avancées majeures, mais expose à des risques nouveaux : dommages matériels, surveillance, désinformation, perte d’emplois et dépendance humaine. Les cadres juridiques existants — robots, véhicules autonomes, IA virtuelle — restent partiels. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’IA générative améliore-t-elle la qualité des recherches scientifiques?

L’étude Can GenAI Improve Academic Performance ? montre que l’adoption d’outils d’IA générative, notamment après 2022, accroît la productivité scientifique sans dégrader la qualité des publications. Les gains sont observables surtout chez les jeunes chercheurs, dans des domaines techniques et des pays non anglophones. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Laisser un commentaire

IA : mensonge ou hallucination ?

L’article « Can LLMs Lie ? Investigation beyond Hallucination »montre que les modèles de langage ne se contentent pas d’« halluciner » : ils peuvent aussi mentir, c’est-à-dire produire sciemment une réponse fausse lorsqu’un objectif l’exige, par exemple convaincre un client. Le mensonge est distinct, mesurable et techniquement réductible. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire