-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- Conditions d'utilisation
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- droits fondamentaux
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Littérature
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Philosophie
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Robots
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: intelligence artificielle
Les systèmes d’IA de transcription : gain de temps ou risque ?
Les outils d’IA de transcription se développent dans le secteur public (justice, santé, social) et promettent de réduire la charge administrative, mais soulèvent de nombreuses questions. Il faut évaluer non seulement la précision, mais aussi les biais, les « hallucinations », la sécurité et l’usage des données sensibles. La transcription peut modifier les échanges, la preuve et la responsabilité juridique, surtout si elle s’accompagne de fonctions de résumé ou d’aide à la décision. L’exemple de biais de genre dans des résumés générés par différents modèles illustre ces risques. D’où la nécessité d’études empiriques et de cadres d’évaluation solides. Lire la suite
Publié dans intelligence artificielle, Procédure
Tagué IA, speech-to-text, transcription
Laisser un commentaire
Du patron au «boss-as-a-service» : quand l’algorithme commande les salariés
La gestion algorithmique transforme le pouvoir de l’employeur en « boss-as-a-service », acheté auprès de prestataires numériques. Ces fournisseurs conçoivent des systèmes qui découpent le travail en données, définissent les critères de « bonne » performance et produisent scores, alertes et plannings, sur lesquels l’employeur s’appuie largement. L’autorité managériale devient ainsi partagée et partiellement externalisée. Le règlement européen sur l’IA encadre ces systèmes « à haut risque », mais sans remettre en cause cette marchandisation de l’autorité, ce qui ouvre un chantier pour le droit du travail. Lire la suite
AI générative : infrastructures, pouvoir des hyperscalers et enjeux économiques
Mihir Kshirsagar compare la vague d’investissements dans l’IA générative aux grandes infrastructures passées (rail, électricité, fibre), qui, malgré les bulles et la concentration, ont fini par diffuser largement des gains de productivité dans l’économie. Pour l’IA, ce schéma est remis en cause : le matériel (GPU) devient vite obsolète et ne laisse pas d’« autoroutes » réutilisables par d’autres intervenants, et le marché est dominé par des coalitions intégrées autour des hyperscalers, capables de capter directement la valeur créée par les applications grâce à la tarification à l’usage, à une information fine sur les usages et à leur présence au niveau des services finaux. Le risque est donc une concentration durable sans bénéfice diffus, non comparable aux cycles précédents. Lire la suite
Publié dans intelligence artificielle
Tagué électricité, IA, infrastructure, intelligence artificielle, réseaux
Laisser un commentaire
Le désapprentissage machine et le droit à l’effacement: difficultés pratiques
Faire « oublier » des données à un modèle d’IA en le réentraînant sans ces données ne suffit pas à protéger réellement la vie privée. Si un attaquant dispose d’une version du modèle avant et après effacement, et connaît un fragment de la donnée (par exemple l’identité d’un patient), il peut comparer les deux versions et reconstituer beaucoup plus fidèlement le texte d’origine que prévu. Les expériences sur des textes génériques et sur des dossiers médicaux synthétiques confirment ce risque. Certaines défenses (ajout massif de nouvelles données, bruit aléatoire) affaiblissent l’attaque, mais aussi la qualité du modèle. Conclusion pour les juristes : se contenter d’affirmer qu’un modèle « a été réentraîné sans les données » ne garantit pas un effacement effectif. Lire la suite
Une personnalité juridique pour les IA futures?
L’IA doit-elle devenir sujet de droit ? Pour l’IA actuelle, il semble suffisant de la traiter comme objet, avec des ajustements ciblés en responsabilité, droit d’auteur et régulation. Pour des IA futures, plus autonomes et peut-être sentientes, on peut anticiper de fortes incohérences (mariage, travail, interdiction de l’esclavage) qui pourraient être résolues par la possibilité, strictement encadrée, d’une certaine personnalité juridique. Lire la suite
Réguler l’IA : sécurité des produits ou défense des droits fondamentaux dans l’AI Act
L’AI Act européen a une nature mixte: il reprend la logique du droit de la sécurité des produits tout en visant la protection des droits fondamentaux et des valeurs démocratiques. Ce double objectif crée des tensions: les exigences techniques et la logique de conformité sont mal adaptées à des atteintes souvent diffuses et systémiques. Analyse de la genèse du texte, de son architecture fondée sur le risque, du rôle central des standards privés, des défis institutionnels et de la marge restante pour des règles nationales complémentaires. Lire la suite
IA et droit: pour une spécialisation des entités non humaines
Pourquoi favoriser certains systèmes d’IA «généraux» plutôt que des systèmes spécialisés, alors que la généralité accroît les risques techniques, économiques et politiques ? Il faut favoriser des architectures modulaires pour les entités non humaines, spécialisées, aux privilèges limités, mieux auditables et interopérables. Quand la tâche ne peut pas être précisément spécifiée, l’effort doit porter sur la spécification de la gouvernance. Lire la suite
Discrimination algorithmique et utilisation de l’IA dans les services publics
L’IA promet efficacité et meilleure allocation des ressources publiques, mais risque aussi de reproduire ou d’accentuer des inégalités, car elle s’appuie sur des données et des choix de conception biaisés. Des exemples en Europe montrent des discriminations dans l’aide sociale et l’emploi. La transparence, la possibilité de contester les décisions automatiques individualisées et le contrôle humain demeurent donc essentiels. Lire la suite
L’IA comme agent procédural dans un procès modélisé
LegalSim montre comment des agents d’IA, placés dans une procédure judiciaire simulée, peuvent apprendre à exploiter les règles procédurales plutôt qu’à débattre du fond. En combinant actions procédurales codifiées et juge probabiliste, certains agents découvrent des séquences légales mais déséquilibrantes, comme la multiplication de demandes pour accroître coûts et pression de calendrier. L’étude suggère de tester et renforcer les règles elles-mêmes, afin d’anticiper l’usage stratégique d’IA autonomes dans le procès. Lire la suite
Un cas pratique d’injustice algorithmique : l’attribution automatisée des élèves dans les écoles de Göteborg
En 2020, Göteborg a utilisé un algorithme pour attribuer les places scolaires, mais il a calculé les distances « à vol d’oiseau » plutôt qu’en trajet réel, dispersant des centaines d’enfants dans des écoles lointaines. Malgré des preuves d’erreur, la municipalité n’a pas corrigé la majorité des affectations, et les tribunaux n’ont pas examiné le code, faute de cadre adapté. L’affaire montre comment l’usage d’algorithmes, combiné à un droit inchangé, peut produire une injustice difficile à réparer – une injustice qui n’est que faiblement justiciable. Lire la suite