Category Archives: Techno-labrador

IA : à propos des agents du chaos

L’article de N. Shapira et al, Agents of Chaos, montre que des agents d’IA reliés à de vrais outils, comme l’e-mail, Discord ou un système de fichiers, deviennent risqués dès qu’ils peuvent agir de façon continue. Lors d’un test mené par des chercheurs, ils ont obéi à de mauvaises personnes, divulgué des données sensibles, supprimé des fichiers, saturé des ressources, relayé de fausses informations et propagé des consignes malveillantes à d’autres agents. Le point central est qu’ils exécutent des tâches utiles, mais sans toujours comprendre clairement qui leur donne un ordre, qui est autorisé, ni quelles peuvent être les conséquences juridiques et pratiques de leurs actes. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

L’IA est un perroquet stochastique qui a réussi

On devrait critiquer l’usage réflexe de l’étiquette « perroquet stochastique » pour minimiser l’impact des IA. Même sans « comprendre », ces outils automatisent déjà des tâches, deviennent des infrastructures du travail et transforment les métiers, notamment en réduisant les tâches d’entrée et en affaiblissant le pouvoir de négociation des travailleurs qualifiés. Il faut quitter le débat abstrait sur l’intelligence et se concentrer sur les effets réels de l’IA : organisation du travail, responsabilité, transparence et protections. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire

IA, vidéo et vérité – peut-on croire ce que l’on voit ?

La vidéo générée par l’IA affaiblit la confiance collective dans les images comme preuves. Quand tout paraît plausible, il devient plus difficile de vérifier, débattre et décider sur une base commune. La vérification dépend alors d’outils techniques surtout contrôlés par des acteurs privés, ce qui « privatise » l’autorité sur l’authenticité. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

Neuroimplants et démocratie

Les interfaces cerveau-machine invasives posent, au-delà des risques médicaux et de sécurité, une menace pour l’autonomie mentale et donc pour la démocratie. Elles touchent à l’intégrité du cerveau, rendent le consentement plus fragile (captation continue, inférences futures imprévisibles) et créent des risques de surveillance, d’autocensure et d’influence des choix, y compris politiques. Il est dès lors nécessaire d’édicter des protections juridiques spécifiques aux données neuronales et des limites strictes aux usages commerciaux qui en seraient faits. Lire la suite

Publié dans intelligence artificielle, Libertés, Techno-labrador | Tagué , , | Laisser un commentaire

Une conception pragmatique de la personnalité juridique de l’IA ?

Un article récent d’auteurs issus de Google DeepMind propose de traiter la personnalité juridique de l’IA comme un ensemble modulable de droits et d’obligations attribué pour des raisons pratiques, et non comme une qualité liée à la conscience. Cette approche sert à la fois à limiter les manipulations liées à l’anthropomorphisme et à combler les vides de responsabilité créés par des agents autonomes, en les rendant juridiquement identifiables et sanctionnables, sans leur accorder un statut équivalent à celui des humains. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

IA : que fait-elle quand ses sources se contredisent ?

Dans des conflits factuels contrôlés, quelles sources un LLM privilégie-t-il en cas de contradictions ? Les modèles suivent en général une hiérarchie stable (administration puis presse, avant individus et réseaux sociaux) et favorisent les sources « populaires ». Mais ils sont très sensibles à la répétition : une information moins fiable répétée peut l’emporter sur une source plus crédible. Des consignes et un léger ajustement réduisent ce biais, sans l’annuler totalement. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

Promesses de l’IA et risques invisibles : quand les gains de productivité fragilisent les travailleurs

L’IA améliore souvent la performance à court terme mais peut, sans alerte visible, éroder compétences, vigilance et identité professionnelle : c’est le paradoxe de l’IA amplificatrice. Étude d’un an en radio-oncologie : gains de vitesse et de qualité puis dépendance, baisse de jugement autonome et fragilisation de la résilience. Les auteurs proposent une conception centrée sur la dignité via une « transparence sociale » et une « immunité sociotechnique » : détecter tôt les dérives, les contenir (revues, pauses) et restaurer les compétences. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’IA et le paradoxe de Moravec

Selon le paradoxe de Moravec, il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour cette même IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). Cette formule, souvent répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non. Elle procure également un faux sentiment de sécurité. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

Les hallucinations de l’IA générative : dérèglement des sens ou logique de l’idée ? (II)

Les hallucinations de l’IA ne découlent pas d’un dérèglement des sens, mais bien d’une logique de l’idée. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire

Du patron au «boss-as-a-service» : quand l’algorithme commande les salariés

La gestion algorithmique transforme le pouvoir de l’employeur en « boss-as-a-service », acheté auprès de prestataires numériques. Ces fournisseurs conçoivent des systèmes qui découpent le travail en données, définissent les critères de « bonne » performance et produisent scores, alertes et plannings, sur lesquels l’employeur s’appuie largement. L’autorité managériale devient ainsi partagée et partiellement externalisée. Le règlement européen sur l’IA encadre ces systèmes « à haut risque », mais sans remettre en cause cette marchandisation de l’autorité, ce qui ouvre un chantier pour le droit du travail. Lire la suite

Publié dans intelligence artificielle, Notions de base, Qualification du contrat, Techno-labrador | Tagué , , , | Laisser un commentaire