Tag Archives: intelligence artificielle

Une conception pragmatique de la personnalité juridique de l’IA ?

Un article récent d’auteurs issus de Google DeepMind propose de traiter la personnalité juridique de l’IA comme un ensemble modulable de droits et d’obligations attribué pour des raisons pratiques, et non comme une qualité liée à la conscience. Cette approche sert à la fois à limiter les manipulations liées à l’anthropomorphisme et à combler les vides de responsabilité créés par des agents autonomes, en les rendant juridiquement identifiables et sanctionnables, sans leur accorder un statut équivalent à celui des humains. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

IA : que fait-elle quand ses sources se contredisent ?

Dans des conflits factuels contrôlés, quelles sources un LLM privilégie-t-il en cas de contradictions ? Les modèles suivent en général une hiérarchie stable (administration puis presse, avant individus et réseaux sociaux) et favorisent les sources « populaires ». Mais ils sont très sensibles à la répétition : une information moins fiable répétée peut l’emporter sur une source plus crédible. Des consignes et un léger ajustement réduisent ce biais, sans l’annuler totalement. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

L’IA dans les centres d’appel : (in)justice et management algorithmique

Les outils datafiés et d’IA dans le management algorithmique transforment des comportements complexes (ton, « empathie », rythme, conformité) en métriques servant à surveiller, classer et discipliner, ce qui intensifie le travail, accroît le stress et fragilise la solidarité. Les salariés imputent toutefois l’injustice moins à la technologie qu’à son usage managérial, au modèle économique et aux rapports de pouvoir, d’où l’idée de réguler aussi la gouvernance et les pratiques, pas seulement les systèmes. Lire la suite

Publié dans intelligence artificielle, Protection de la personnalité, Protection des données | Tagué , , , | Laisser un commentaire

L’IA et le paradoxe de Moravec

Selon le paradoxe de Moravec, il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour cette même IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). Cette formule, souvent répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non. Elle procure également un faux sentiment de sécurité. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’utilisation de l’IA générative par le juge : exemple pratique

Dans le cadre d’un procès volumineux, comment l’IA générative peut-elle aider un juge à retrouver rapidement des pièces, synthétiser des transcriptions et produire des brouillons de constatations de faits ? Exemple pratique au Texas. Lire la suite

Publié dans Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Le recrutement automatisé discriminatoire assisté par l’intelligence artificielle

Le recrutement automatisé assisté par l’IA peut reproduire ou aggraver des discriminations (sexe, origine, âge, handicap). Ces systèmes, qualifiés de systèmes à haut risque, relèvent notamment du droit de la protection des données, qui ouvre au candidat certains droits spécifiques (information, opposition à une décision uniquement automatisée, nouvel examen humain, communication de la logique sous-jacente). Ces droits peuvent être mis en œuvre dans des contentieux du travail, avec certains difficultés de procédure et de fond toutefois. Lire la suite

Publié dans discrimination, intelligence artificielle, Protection des données, recrutement | Tagué , , , , , , , , | Laisser un commentaire

Protection des données, IA et silent updates

Les « silent updates » sont des mises à jour téléchargées et installées en arrière-plan, souvent sans action de ou notification immédiate à l’utilisateur. Elles réduisent le délai d’application des correctifs de sécurité, évitent les reports par l’utilisateur et limitent les interruptions. Cela pose toutefois des risques évidents de transparence, d’adaptabilité et de compliance, notamment quand elles concernent des changements de comportement des systèmes d’IA. Lire la suite

Publié dans intelligence artificielle, Protection des données | Tagué , , , | Laisser un commentaire

Et si l’IA corrigeait les examens en droit ?

Un modèle de langage général, couplé à un barème détaillé, peut corriger des examens de droit presque comme un professeur. Sur quatre examens américains, les notes de l’IA sont très proches de celles des enseignants, parfois autant que deux corrections humaines entre elles. Les gains viennent surtout de barèmes précis. In ne s’agit pas de remplacer les professeurs, mais d’utiliser l’IA comme second lecteur, outil de contrôle qualité et support de retours rapides aux étudiants ou jeunes avocats. Lire la suite

Publié dans Droit US, intelligence artificielle | Tagué , , , , | Laisser un commentaire

Licencié pour avoir dénoncé des robots humanoïdes dangereux?

Selon une demande en paiement introduite en Californie, G., ingénieur sécurité, est engagé par F. AI pour sécuriser ses robots humanoïdes avec IA. Il dit découvrir de graves lacunes, documente des incidents et alerte direction, développeurs et investisseurs. Licencié peu après, il invoque les lois californiennes protégeant les lanceurs d’alerte et le licenciement abusif (congé-représailles); il réclame des dommages. Lire la suite

Publié dans Droit US, intelligence artificielle, Licenciement abusif | Tagué , , , , , | Laisser un commentaire

AI générative : infrastructures, pouvoir des hyperscalers et enjeux économiques

Mihir Kshirsagar compare la vague d’investissements dans l’IA générative aux grandes infrastructures passées (rail, électricité, fibre), qui, malgré les bulles et la concentration, ont fini par diffuser largement des gains de productivité dans l’économie. Pour l’IA, ce schéma est remis en cause : le matériel (GPU) devient vite obsolète et ne laisse pas d’« autoroutes » réutilisables par d’autres intervenants, et le marché est dominé par des coalitions intégrées autour des hyperscalers, capables de capter directement la valeur créée par les applications grâce à la tarification à l’usage, à une information fine sur les usages et à leur présence au niveau des services finaux. Le risque est donc une concentration durable sans bénéfice diffus, non comparable aux cycles précédents. Lire la suite

Publié dans intelligence artificielle | Tagué , , , , | Laisser un commentaire