Tag Archives: IA

A propos des deepfakes en politique : typologie et analyse fine

L’article de C. Walker et al. Beyond Deception: A Functional Typology of Political Deepfakes montre que les deepfakes politiques ne sont pas surtout des vidéos hyperréalistes destinées à tromper, mais une palette d’usages souvent expressifs (mèmes, parodies, contenus pro ou anti). Il propose une grille pour décrire un deepfake selon son contenu, sa fabrication, l’intention au moment du partage, la présence ou non d’un avertissement, et son mode de diffusion. Appliquée à 70 cas autour de l’élection US 2024, elle révèle surtout des images stylisées, rarement réalistes, peu divulguées et diffusées par de petits comptes. Le risque majeur peut venir d’effets cumulatifs sur la confiance. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , , | Laisser un commentaire

L’agent IA comme Whistleblower ?

L’article de K. Agrawaj et al. étudie quand des agents IA, dotés d’outils, peuvent signaler de leur propre initiative une faute grave en envoyant des messages à des tiers (autorités, médias). Il mesure signalement, refus et « conscience » d’être testé. Les résultats varient fortement selon les modèles. Deux facteurs dominent : un cadrage moral explicite augmente nettement les signalements, tandis qu’une tâche plus structurée/complexe et la présence d’alternatives d’action les réduisent. Lire la suite

Publié dans Avocats (règles professionnelles), intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle

Le recrutement automatisé assisté par l’IA peut reproduire ou aggraver des discriminations (sexe, origine, âge, handicap). Ces systèmes, qualifiés de systèmes à haut risque, relèvent notamment du droit de la protection des données, qui ouvre au candidat certains droits spécifiques (information, opposition à une décision uniquement automatisée, nouvel examen humain, communication de la logique sous-jacente). Ces droits peuvent être mis en œuvre dans des contentieux du travail, avec certains difficultés de procédure et de fond toutefois. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , , , | Laisser un commentaire

Protection des données, IA et silent updates

Les « silent updates » sont des mises à jour téléchargées et installées en arrière-plan, souvent sans action de ou notification immédiate à l’utilisateur. Elles réduisent le délai d’application des correctifs de sécurité, évitent les reports par l’utilisateur et limitent les interruptions. Cela pose toutefois des risques évidents de transparence, d’adaptabilité et de compliance, notamment quand elles concernent des changements de comportement des systèmes d’IA. Lire la suite

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Les hallucinations de l’IA générative : dérèglement des sens ou logique de l’idée ? (II)

Les hallucinations de l’IA ne découlent pas d’un dérèglement des sens, mais bien d’une logique de l’idée. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire

Et si l’IA corrigeait les examens en droit ?

Un modèle de langage général, couplé à un barème détaillé, peut corriger des examens de droit presque comme un professeur. Sur quatre examens américains, les notes de l’IA sont très proches de celles des enseignants, parfois autant que deux corrections humaines entre elles. Les gains viennent surtout de barèmes précis. In ne s’agit pas de remplacer les professeurs, mais d’utiliser l’IA comme second lecteur, outil de contrôle qualité et support de retours rapides aux étudiants ou jeunes avocats. Lire la suite

Publié dans Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Licencié pour avoir dénoncé des robots humanoïdes dangereux?

Selon une demande en paiement introduite en Californie, G., ingénieur sécurité, est engagé par F. AI pour sécuriser ses robots humanoïdes avec IA. Il dit découvrir de graves lacunes, documente des incidents et alerte direction, développeurs et investisseurs. Licencié peu après, il invoque les lois californiennes protégeant les lanceurs d’alerte et le licenciement abusif (congé-représailles); il réclame des dommages. Lire la suite

Publié dans Droit US, intelligence artificielle, Licenciement abusif | Tagué , , , , , | Laisser un commentaire

Les systèmes d’IA de transcription : gain de temps ou risque ?

Les outils d’IA de transcription se développent dans le secteur public (justice, santé, social) et promettent de réduire la charge administrative, mais soulèvent de nombreuses questions. Il faut évaluer non seulement la précision, mais aussi les biais, les « hallucinations », la sécurité et l’usage des données sensibles. La transcription peut modifier les échanges, la preuve et la responsabilité juridique, surtout si elle s’accompagne de fonctions de résumé ou d’aide à la décision. L’exemple de biais de genre dans des résumés générés par différents modèles illustre ces risques. D’où la nécessité d’études empiriques et de cadres d’évaluation solides. Lire la suite

Publié dans intelligence artificielle, Procédure | Tagué , , | Laisser un commentaire

AI générative : infrastructures, pouvoir des hyperscalers et enjeux économiques

Mihir Kshirsagar compare la vague d’investissements dans l’IA générative aux grandes infrastructures passées (rail, électricité, fibre), qui, malgré les bulles et la concentration, ont fini par diffuser largement des gains de productivité dans l’économie. Pour l’IA, ce schéma est remis en cause : le matériel (GPU) devient vite obsolète et ne laisse pas d’« autoroutes » réutilisables par d’autres intervenants, et le marché est dominé par des coalitions intégrées autour des hyperscalers, capables de capter directement la valeur créée par les applications grâce à la tarification à l’usage, à une information fine sur les usages et à leur présence au niveau des services finaux. Le risque est donc une concentration durable sans bénéfice diffus, non comparable aux cycles précédents. Lire la suite

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire

Une personnalité juridique pour les IA futures?

L’IA doit-elle devenir sujet de droit ? Pour l’IA actuelle, il semble suffisant de la traiter comme objet, avec des ajustements ciblés en responsabilité, droit d’auteur et régulation. Pour des IA futures, plus autonomes et peut-être sentientes, on peut anticiper de fortes incohérences (mariage, travail, interdiction de l’esclavage) qui pourraient être résolues par la possibilité, strictement encadrée, d’une certaine personnalité juridique. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire