Category Archives: Techno-labrador

IA, vidéo et vérité – peut-on croire ce que l’on voit ?

La vidéo générée par l’IA affaiblit la confiance collective dans les images comme preuves. Quand tout paraît plausible, il devient plus difficile de vérifier, débattre et décider sur une base commune. La vérification dépend alors d’outils techniques surtout contrôlés par des acteurs privés, ce qui « privatise » l’autorité sur l’authenticité. Lire la suite

Publié dans Deepfakes, intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

Neuroimplants et démocratie

Les interfaces cerveau-machine invasives posent, au-delà des risques médicaux et de sécurité, une menace pour l’autonomie mentale et donc pour la démocratie. Elles touchent à l’intégrité du cerveau, rendent le consentement plus fragile (captation continue, inférences futures imprévisibles) et créent des risques de surveillance, d’autocensure et d’influence des choix, y compris politiques. Il est dès lors nécessaire d’édicter des protections juridiques spécifiques aux données neuronales et des limites strictes aux usages commerciaux qui en seraient faits. Lire la suite

Publié dans intelligence artificielle, Libertés, Techno-labrador | Tagué , , | Laisser un commentaire

Une conception pragmatique de la personnalité juridique de l’IA ?

Un article récent d’auteurs issus de Google DeepMind propose de traiter la personnalité juridique de l’IA comme un ensemble modulable de droits et d’obligations attribué pour des raisons pratiques, et non comme une qualité liée à la conscience. Cette approche sert à la fois à limiter les manipulations liées à l’anthropomorphisme et à combler les vides de responsabilité créés par des agents autonomes, en les rendant juridiquement identifiables et sanctionnables, sans leur accorder un statut équivalent à celui des humains. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , | Laisser un commentaire

IA : que fait-elle quand ses sources se contredisent ?

Dans des conflits factuels contrôlés, quelles sources un LLM privilégie-t-il en cas de contradictions ? Les modèles suivent en général une hiérarchie stable (administration puis presse, avant individus et réseaux sociaux) et favorisent les sources « populaires ». Mais ils sont très sensibles à la répétition : une information moins fiable répétée peut l’emporter sur une source plus crédible. Des consignes et un léger ajustement réduisent ce biais, sans l’annuler totalement. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , , | Laisser un commentaire

Promesses de l’IA et risques invisibles : quand les gains de productivité fragilisent les travailleurs

L’IA améliore souvent la performance à court terme mais peut, sans alerte visible, éroder compétences, vigilance et identité professionnelle : c’est le paradoxe de l’IA amplificatrice. Étude d’un an en radio-oncologie : gains de vitesse et de qualité puis dépendance, baisse de jugement autonome et fragilisation de la résilience. Les auteurs proposent une conception centrée sur la dignité via une « transparence sociale » et une « immunité sociotechnique » : détecter tôt les dérives, les contenir (revues, pauses) et restaurer les compétences. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

L’IA et le paradoxe de Moravec

Selon le paradoxe de Moravec, il serait facile pour l’IA de faire des tâches difficiles pour les humains (logique, calcul, jeux), et difficile pour cette même IA de faire des tâches faciles pour les humains (perception, mobilité, interaction avec le monde). Cette formule, souvent répétée dans le milieu IA, n’est ni solidement étayée par des faits, ni vraiment utile pour prévoir ce qui deviendra bientôt faisable ou non. Elle procure également un faux sentiment de sécurité. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , , , | Laisser un commentaire

Les hallucinations de l’IA générative : dérèglement des sens ou logique de l’idée ? (II)

Les hallucinations de l’IA ne découlent pas d’un dérèglement des sens, mais bien d’une logique de l’idée. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire

Du patron au «boss-as-a-service» : quand l’algorithme commande les salariés

La gestion algorithmique transforme le pouvoir de l’employeur en « boss-as-a-service », acheté auprès de prestataires numériques. Ces fournisseurs conçoivent des systèmes qui découpent le travail en données, définissent les critères de « bonne » performance et produisent scores, alertes et plannings, sur lesquels l’employeur s’appuie largement. L’autorité managériale devient ainsi partagée et partiellement externalisée. Le règlement européen sur l’IA encadre ces systèmes « à haut risque », mais sans remettre en cause cette marchandisation de l’autorité, ce qui ouvre un chantier pour le droit du travail. Lire la suite

Publié dans intelligence artificielle, Notions de base, Qualification du contrat, Techno-labrador | Tagué , , , | Laisser un commentaire

Le désapprentissage machine et le droit à l’effacement: difficultés pratiques

Faire « oublier » des données à un modèle d’IA en le réentraînant sans ces données ne suffit pas à protéger réellement la vie privée. Si un attaquant dispose d’une version du modèle avant et après effacement, et connaît un fragment de la donnée (par exemple l’identité d’un patient), il peut comparer les deux versions et reconstituer beaucoup plus fidèlement le texte d’origine que prévu. Les expériences sur des textes génériques et sur des dossiers médicaux synthétiques confirment ce risque. Certaines défenses (ajout massif de nouvelles données, bruit aléatoire) affaiblissent l’attaque, mais aussi la qualité du modèle. Conclusion pour les juristes : se contenter d’affirmer qu’un modèle « a été réentraîné sans les données » ne garantit pas un effacement effectif. Lire la suite

Publié dans intelligence artificielle, Protection des données, Techno-labrador | Tagué , , | Laisser un commentaire

Une personnalité juridique pour les IA futures?

L’IA doit-elle devenir sujet de droit ? Pour l’IA actuelle, il semble suffisant de la traiter comme objet, avec des ajustements ciblés en responsabilité, droit d’auteur et régulation. Pour des IA futures, plus autonomes et peut-être sentientes, on peut anticiper de fortes incohérences (mariage, travail, interdiction de l’esclavage) qui pourraient être résolues par la possibilité, strictement encadrée, d’une certaine personnalité juridique. Lire la suite

Publié dans intelligence artificielle, Techno-labrador | Tagué , , | Laisser un commentaire