-
Articles récents
- Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle
- Protection des données, IA et silent updates
- Dépasser l’équité algorithmique
- Discriminatory automated recruitment assisted by artificial intelligence (AI)
- Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Tag Archives: IA
Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle
Le recrutement automatisé assisté par l’IA peut reproduire ou aggraver des discriminations (sexe, origine, âge, handicap). Ces systèmes, qualifiés de systèmes à haut risque, relèvent notamment du droit de la protection des données, qui ouvre au candidat certains droits spécifiques (information, opposition à une décision uniquement automatisée, nouvel examen humain, communication de la logique sous-jacente). Ces droits peuvent être mis en œuvre dans des contentieux du travail, avec certains difficultés de procédure et de fond toutefois. Lire la suite
Protection des données, IA et silent updates
Les « silent updates » sont des mises à jour téléchargées et installées en arrière-plan, souvent sans action de ou notification immédiate à l’utilisateur. Elles réduisent le délai d’application des correctifs de sécurité, évitent les reports par l’utilisateur et limitent les interruptions. Cela pose toutefois des risques évidents de transparence, d’adaptabilité et de compliance, notamment quand elles concernent des changements de comportement des systèmes d’IA. Lire la suite
Les hallucinations de l’IA générative : dérèglement des sens ou logique de l’idée ? (II)
Les hallucinations de l’IA ne découlent pas d’un dérèglement des sens, mais bien d’une logique de l’idée. Lire la suite
Publié dans intelligence artificielle, Techno-labrador
Tagué hallucinations, IA, système
Laisser un commentaire
Et si l’IA corrigeait les examens en droit ?
Un modèle de langage général, couplé à un barème détaillé, peut corriger des examens de droit presque comme un professeur. Sur quatre examens américains, les notes de l’IA sont très proches de celles des enseignants, parfois autant que deux corrections humaines entre elles. Les gains viennent surtout de barèmes précis. In ne s’agit pas de remplacer les professeurs, mais d’utiliser l’IA comme second lecteur, outil de contrôle qualité et support de retours rapides aux étudiants ou jeunes avocats. Lire la suite
Publié dans Droit US, intelligence artificielle
Tagué correction, droit, examens, IA, intelligence artificielle
Laisser un commentaire
Licencié pour avoir dénoncé des robots humanoïdes dangereux?
Selon une demande en paiement introduite en Californie, G., ingénieur sécurité, est engagé par F. AI pour sécuriser ses robots humanoïdes avec IA. Il dit découvrir de graves lacunes, documente des incidents et alerte direction, développeurs et investisseurs. Licencié peu après, il invoque les lois californiennes protégeant les lanceurs d’alerte et le licenciement abusif (congé-représailles); il réclame des dommages. Lire la suite
Les systèmes d’IA de transcription : gain de temps ou risque ?
Les outils d’IA de transcription se développent dans le secteur public (justice, santé, social) et promettent de réduire la charge administrative, mais soulèvent de nombreuses questions. Il faut évaluer non seulement la précision, mais aussi les biais, les « hallucinations », la sécurité et l’usage des données sensibles. La transcription peut modifier les échanges, la preuve et la responsabilité juridique, surtout si elle s’accompagne de fonctions de résumé ou d’aide à la décision. L’exemple de biais de genre dans des résumés générés par différents modèles illustre ces risques. D’où la nécessité d’études empiriques et de cadres d’évaluation solides. Lire la suite
Publié dans intelligence artificielle, Procédure
Tagué IA, speech-to-text, transcription
Laisser un commentaire
AI générative : infrastructures, pouvoir des hyperscalers et enjeux économiques
Mihir Kshirsagar compare la vague d’investissements dans l’IA générative aux grandes infrastructures passées (rail, électricité, fibre), qui, malgré les bulles et la concentration, ont fini par diffuser largement des gains de productivité dans l’économie. Pour l’IA, ce schéma est remis en cause : le matériel (GPU) devient vite obsolète et ne laisse pas d’« autoroutes » réutilisables par d’autres intervenants, et le marché est dominé par des coalitions intégrées autour des hyperscalers, capables de capter directement la valeur créée par les applications grâce à la tarification à l’usage, à une information fine sur les usages et à leur présence au niveau des services finaux. Le risque est donc une concentration durable sans bénéfice diffus, non comparable aux cycles précédents. Lire la suite
Publié dans intelligence artificielle
Tagué électricité, IA, infrastructure, intelligence artificielle, réseaux
Laisser un commentaire
Une personnalité juridique pour les IA futures?
L’IA doit-elle devenir sujet de droit ? Pour l’IA actuelle, il semble suffisant de la traiter comme objet, avec des ajustements ciblés en responsabilité, droit d’auteur et régulation. Pour des IA futures, plus autonomes et peut-être sentientes, on peut anticiper de fortes incohérences (mariage, travail, interdiction de l’esclavage) qui pourraient être résolues par la possibilité, strictement encadrée, d’une certaine personnalité juridique. Lire la suite
IA et droit: pour une spécialisation des entités non humaines
Pourquoi favoriser certains systèmes d’IA «généraux» plutôt que des systèmes spécialisés, alors que la généralité accroît les risques techniques, économiques et politiques ? Il faut favoriser des architectures modulaires pour les entités non humaines, spécialisées, aux privilèges limités, mieux auditables et interopérables. Quand la tâche ne peut pas être précisément spécifiée, l’effort doit porter sur la spécification de la gouvernance. Lire la suite
Discrimination algorithmique et utilisation de l’IA dans les services publics
L’IA promet efficacité et meilleure allocation des ressources publiques, mais risque aussi de reproduire ou d’accentuer des inégalités, car elle s’appuie sur des données et des choix de conception biaisés. Des exemples en Europe montrent des discriminations dans l’aide sociale et l’emploi. La transparence, la possibilité de contester les décisions automatiques individualisées et le contrôle humain demeurent donc essentiels. Lire la suite