Category Archives: intelligence artificielle

Les systèmes d’IA de transcription : gain de temps ou risque ?

Les outils d’IA de transcription se développent dans le secteur public (justice, santé, social) et promettent de réduire la charge administrative, mais soulèvent de nombreuses questions. Il faut évaluer non seulement la précision, mais aussi les biais, les « hallucinations », la sécurité et l’usage des données sensibles. La transcription peut modifier les échanges, la preuve et la responsabilité juridique, surtout si elle s’accompagne de fonctions de résumé ou d’aide à la décision. L’exemple de biais de genre dans des résumés générés par différents modèles illustre ces risques. D’où la nécessité d’études empiriques et de cadres d’évaluation solides. Lire la suite

Publié dans intelligence artificielle, Procédure | Tagué , , | Laisser un commentaire

Du patron au «boss-as-a-service» : quand l’algorithme commande les salariés

La gestion algorithmique transforme le pouvoir de l’employeur en « boss-as-a-service », acheté auprès de prestataires numériques. Ces fournisseurs conçoivent des systèmes qui découpent le travail en données, définissent les critères de « bonne » performance et produisent scores, alertes et plannings, sur lesquels l’employeur s’appuie largement. L’autorité managériale devient ainsi partagée et partiellement externalisée. Le règlement européen sur l’IA encadre ces systèmes « à haut risque », mais sans remettre en cause cette marchandisation de l’autorité, ce qui ouvre un chantier pour le droit du travail. Lire la suite

Publié dans intelligence artificielle, Notions de base, Qualification du contrat, Techno-labrador | Tagué , , , | Laisser un commentaire

AI générative : infrastructures, pouvoir des hyperscalers et enjeux économiques

Mihir Kshirsagar compare la vague d’investissements dans l’IA générative aux grandes infrastructures passées (rail, électricité, fibre), qui, malgré les bulles et la concentration, ont fini par diffuser largement des gains de productivité dans l’économie. Pour l’IA, ce schéma est remis en cause : le matériel (GPU) devient vite obsolète et ne laisse pas d’« autoroutes » réutilisables par d’autres intervenants, et le marché est dominé par des coalitions intégrées autour des hyperscalers, capables de capter directement la valeur créée par les applications grâce à la tarification à l’usage, à une information fine sur les usages et à leur présence au niveau des services finaux. Le risque est donc une concentration durable sans bénéfice diffus, non comparable aux cycles précédents. Lire la suite

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Le désapprentissage machine et le droit à l’effacement: difficultés pratiques

Faire « oublier » des données à un modèle d’IA en le réentraînant sans ces données ne suffit pas à protéger réellement la vie privée. Si un attaquant dispose d’une version du modèle avant et après effacement, et connaît un fragment de la donnée (par exemple l’identité d’un patient), il peut comparer les deux versions et reconstituer beaucoup plus fidèlement le texte d’origine que prévu. Les expériences sur des textes génériques et sur des dossiers médicaux synthétiques confirment ce risque. Certaines défenses (ajout massif de nouvelles données, bruit aléatoire) affaiblissent l’attaque, mais aussi la qualité du modèle. Conclusion pour les juristes : se contenter d’affirmer qu’un modèle « a été réentraîné sans les données » ne garantit pas un effacement effectif. Lire la suite

Publié dans intelligence artificielle, Protection des données, Techno-labrador | Tagué , , | Laisser un commentaire

Une personnalité juridique pour les IA futures?

L’IA doit-elle devenir sujet de droit ? Pour l’IA actuelle, il semble suffisant de la traiter comme objet, avec des ajustements ciblés en responsabilité, droit d’auteur et régulation. Pour des IA futures, plus autonomes et peut-être sentientes, on peut anticiper de fortes incohérences (mariage, travail, interdiction de l’esclavage) qui pourraient être résolues par la possibilité, strictement encadrée, d’une certaine personnalité juridique. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire

Réguler l’IA : sécurité des produits ou défense des droits fondamentaux dans l’AI Act

L’AI Act européen a une nature mixte: il reprend la logique du droit de la sécurité des produits tout en visant la protection des droits fondamentaux et des valeurs démocratiques. Ce double objectif crée des tensions: les exigences techniques et la logique de conformité sont mal adaptées à des atteintes souvent diffuses et systémiques. Analyse de la genèse du texte, de son architecture fondée sur le risque, du rôle central des standards privés, des défis institutionnels et de la marge restante pour des règles nationales complémentaires. Lire la suite

Publié dans droit européen, intelligence artificielle | Tagué , , , | Laisser un commentaire

IA et droit: pour une spécialisation des entités non humaines

Pourquoi favoriser certains systèmes d’IA «généraux» plutôt que des systèmes spécialisés, alors que la généralité accroît les risques techniques, économiques et politiques ? Il faut favoriser des architectures modulaires pour les entités non humaines, spécialisées, aux privilèges limités, mieux auditables et interopérables. Quand la tâche ne peut pas être précisément spécifiée, l’effort doit porter sur la spécification de la gouvernance. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

Discrimination algorithmique et utilisation de l’IA dans les services publics

L’IA promet efficacité et meilleure allocation des ressources publiques, mais risque aussi de reproduire ou d’accentuer des inégalités, car elle s’appuie sur des données et des choix de conception biaisés. Des exemples en Europe montrent des discriminations dans l’aide sociale et l’emploi. La transparence, la possibilité de contester les décisions automatiques individualisées et le contrôle humain demeurent donc essentiels. Lire la suite

Publié dans discrimination, Droit administratif général, Fonction publique, intelligence artificielle | Tagué , , , | Laisser un commentaire

L’IA comme agent procédural dans un procès modélisé

LegalSim montre comment des agents d’IA, placés dans une procédure judiciaire simulée, peuvent apprendre à exploiter les règles procédurales plutôt qu’à débattre du fond. En combinant actions procédurales codifiées et juge probabiliste, certains agents découvrent des séquences légales mais déséquilibrantes, comme la multiplication de demandes pour accroître coûts et pression de calendrier. L’étude suggère de tester et renforcer les règles elles-mêmes, afin d’anticiper l’usage stratégique d’IA autonomes dans le procès. Lire la suite

Publié dans Avocats (règles professionnelles), intelligence artificielle, Procédure, Techno-labrador | Tagué , , , | Laisser un commentaire

Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg

En 2020, Göteborg a utilisé un algorithme pour attribuer les places scolaires, mais il a calculé les distances « à vol d’oiseau » plutôt qu’en trajet réel, dispersant des centaines d’enfants dans des écoles lointaines. Malgré des preuves d’erreur, la municipalité n’a pas corrigé la majorité des affectations, et les tribunaux n’ont pas examiné le code, faute de cadre adapté. L’affaire montre comment l’usage d’algorithmes, combiné à un droit inchangé, peut produire une injustice difficile à réparer – une injustice qui n’est que faiblement justiciable. Lire la suite

Publié dans Droit administratif général, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , , , , , | Laisser un commentaire