-
Articles récents
- Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle
- Protection des données, IA et silent updates
- Dépasser l’équité algorithmique
- Discriminatory automated recruitment assisted by artificial intelligence (AI)
- Diskriminierende automatisierte Personalbeschaffung mit KI-Unterstützung
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- congés
- Coronavirus – Covid 19
- démission
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Author Archives: Me Philippe Ehrenström
Licencié pour avoir dénoncé des robots humanoïdes dangereux?
Selon une demande en paiement introduite en Californie, G., ingénieur sécurité, est engagé par F. AI pour sécuriser ses robots humanoïdes avec IA. Il dit découvrir de graves lacunes, documente des incidents et alerte direction, développeurs et investisseurs. Licencié peu après, il invoque les lois californiennes protégeant les lanceurs d’alerte et le licenciement abusif (congé-représailles); il réclame des dommages. Lire la suite
Les systèmes d’IA de transcription : gain de temps ou risque ?
Les outils d’IA de transcription se développent dans le secteur public (justice, santé, social) et promettent de réduire la charge administrative, mais soulèvent de nombreuses questions. Il faut évaluer non seulement la précision, mais aussi les biais, les « hallucinations », la sécurité et l’usage des données sensibles. La transcription peut modifier les échanges, la preuve et la responsabilité juridique, surtout si elle s’accompagne de fonctions de résumé ou d’aide à la décision. L’exemple de biais de genre dans des résumés générés par différents modèles illustre ces risques. D’où la nécessité d’études empiriques et de cadres d’évaluation solides. Lire la suite
Publié dans intelligence artificielle, Procédure
Tagué IA, speech-to-text, transcription
Laisser un commentaire
Du patron au «boss-as-a-service» : quand l’algorithme commande les salariés
La gestion algorithmique transforme le pouvoir de l’employeur en « boss-as-a-service », acheté auprès de prestataires numériques. Ces fournisseurs conçoivent des systèmes qui découpent le travail en données, définissent les critères de « bonne » performance et produisent scores, alertes et plannings, sur lesquels l’employeur s’appuie largement. L’autorité managériale devient ainsi partagée et partiellement externalisée. Le règlement européen sur l’IA encadre ces systèmes « à haut risque », mais sans remettre en cause cette marchandisation de l’autorité, ce qui ouvre un chantier pour le droit du travail. Lire la suite
AI générative : infrastructures, pouvoir des hyperscalers et enjeux économiques
Mihir Kshirsagar compare la vague d’investissements dans l’IA générative aux grandes infrastructures passées (rail, électricité, fibre), qui, malgré les bulles et la concentration, ont fini par diffuser largement des gains de productivité dans l’économie. Pour l’IA, ce schéma est remis en cause : le matériel (GPU) devient vite obsolète et ne laisse pas d’« autoroutes » réutilisables par d’autres intervenants, et le marché est dominé par des coalitions intégrées autour des hyperscalers, capables de capter directement la valeur créée par les applications grâce à la tarification à l’usage, à une information fine sur les usages et à leur présence au niveau des services finaux. Le risque est donc une concentration durable sans bénéfice diffus, non comparable aux cycles précédents. Lire la suite
Publié dans intelligence artificielle
Tagué électricité, IA, infrastructure, intelligence artificielle, réseaux
Laisser un commentaire
Le désapprentissage machine et le droit à l’effacement: difficultés pratiques
Faire « oublier » des données à un modèle d’IA en le réentraînant sans ces données ne suffit pas à protéger réellement la vie privée. Si un attaquant dispose d’une version du modèle avant et après effacement, et connaît un fragment de la donnée (par exemple l’identité d’un patient), il peut comparer les deux versions et reconstituer beaucoup plus fidèlement le texte d’origine que prévu. Les expériences sur des textes génériques et sur des dossiers médicaux synthétiques confirment ce risque. Certaines défenses (ajout massif de nouvelles données, bruit aléatoire) affaiblissent l’attaque, mais aussi la qualité du modèle. Conclusion pour les juristes : se contenter d’affirmer qu’un modèle « a été réentraîné sans les données » ne garantit pas un effacement effectif. Lire la suite
La démission forcée en droit suisse
La démission forcée existe-t-elle en droit suisse? Comparaison avec le droit US et le droit français. Lire la suite
Une personnalité juridique pour les IA futures?
L’IA doit-elle devenir sujet de droit ? Pour l’IA actuelle, il semble suffisant de la traiter comme objet, avec des ajustements ciblés en responsabilité, droit d’auteur et régulation. Pour des IA futures, plus autonomes et peut-être sentientes, on peut anticiper de fortes incohérences (mariage, travail, interdiction de l’esclavage) qui pourraient être résolues par la possibilité, strictement encadrée, d’une certaine personnalité juridique. Lire la suite
Réguler l’IA : sécurité des produits ou défense des droits fondamentaux dans l’AI Act
L’AI Act européen a une nature mixte: il reprend la logique du droit de la sécurité des produits tout en visant la protection des droits fondamentaux et des valeurs démocratiques. Ce double objectif crée des tensions: les exigences techniques et la logique de conformité sont mal adaptées à des atteintes souvent diffuses et systémiques. Analyse de la genèse du texte, de son architecture fondée sur le risque, du rôle central des standards privés, des défis institutionnels et de la marge restante pour des règles nationales complémentaires. Lire la suite
Remboursement forfaitaire des frais professionnels ou salaire déguisé ?
Conditions qui permettent de requalifier un remboursement forfaitaire des frais professionnels en salaire dissimulé (art. 322, 327a CO) Lire la suite
IA et droit: pour une spécialisation des entités non humaines
Pourquoi favoriser certains systèmes d’IA «généraux» plutôt que des systèmes spécialisés, alors que la généralité accroît les risques techniques, économiques et politiques ? Il faut favoriser des architectures modulaires pour les entités non humaines, spécialisées, aux privilèges limités, mieux auditables et interopérables. Quand la tâche ne peut pas être précisément spécifiée, l’effort doit porter sur la spécification de la gouvernance. Lire la suite