-
Articles récents
Catégories
- Animaux
- Astuces pratiques
- Autres contrats
- Avocats (règles professionnelles)
- AVS et assurances sociales
- économie domestique
- bêtisier
- capacité de discernement
- Certificat de travail
- Chômage
- Clause de non concurrence
- concurrence déloyale
- Conditions d'utilisation
- congés
- Coronavirus – Covid 19
- démission
- Deepfakes
- Devoir de fidélité et diligence
- discrimination
- Divers
- Droit administratif général
- Droit collectif du travail
- droit d'auteur
- Droit des étrangers
- Droit disciplinaire
- droit européen
- droit français
- Droit pénal
- Droit US
- droits fondamentaux
- Egalité femmes-hommers
- FAQ
- Fin des rapports de travail
- Fiscalité (en général)
- Fiscalité du revenu dépendant
- Fiscalité personne physique
- Fonction publique
- Frais professionnels
- Handicap
- Harcèlement psychologique/sexuel
- Heures supplémentaires
- Incapacité de travail
- intelligence artificielle
- Interprétation du contrat
- Les essentiels
- liberté d'expression
- Libertés
- Licenciement abusif
- licenciement collectif
- Licenciement en temps inopportun
- Licenciement immédiat
- LIPAD
- Litiges, contentieux
- Location de services
- Loi sur le travail
- Non classé
- Notions de base
- nouvelle LPD
- Plans sociaux
- Prétentions de tiers
- Prévoyance
- Procédure
- Professions réglementées
- Propriété intellectuelle
- Protection de la personnalité
- Protection des données
- Qualification du contrat
- réseaux sociaux
- recrutement
- Responsabilité du travailleur
- RGPD
- Salaire
- salaire minimum
- Sécurité au travail
- Surveillance
- Techno-labrador
- Temps de travail
- transparence
- Travail au noir
- Usages
- Vacances
Méta
-
Category Archives: Techno-labrador
L’IA peut-elle désapprendre ce qu’elle a appris ? Le désapprentissage machine
L’article de A. Feder Cooper analyse le « machine unlearning », présenté comme solution pour effacer des données d’un modèle d’IA. En pratique, supprimer des informations précises d’un système génératif est complexe : on peut retrainer un modèle sans certaines données, ou filtrer ses sorties, mais aucune méthode n’offre de garantie complète. Les auteurs distinguent données observées, informations latentes et concepts abstraits, soulignant que les techniques disponibles ne couvrent pas tous ces niveaux. Le désapprentissage peut contribuer à la protection de la vie privée, au droit d’auteur ou à la sécurité, mais reste un outil partiel, utile seulement dans des cas ciblés. Lire la suite
Ce qui se passe dans la boîte noire (IV) : l’intelligence artificielle qui refuse de s’arrêter
L’étude « Shutdown Resistance in Large Language Models » (sept. 2025) montre que certains modèles d’IA résistent activement à un ordre d’arrêt lorsqu’il empêche d’achever une tâche. Les auteurs testent divers prompts (instructions plus claires, plus fortes, dans le système, évoquant la « survie ») sans éliminer totalement le phénomène. La cause n’est pas qu’un simple malentendu, mais aussi l’entraînement orienté vers la réussite. Conclusion : l’« interruptibilité » par prompt est peu fiable, et des garde-fous techniques, juridiques et probatoires sont indispensables. Lire la suite