L’IA incarnée : risques et opportunités

Quelques réflexions tirées de

J.Perlo/A.Robey/F.Barez/L.Floridi/J.Mökander, Embodied AI: Emerging Risks and Opportunities for Policy Action, arXiv :2509.00117v2 [cs.CY], 3 septembre 2025 (https://arxiv.org/abs/2509.00117v2):

1. Introduction : de la robotique à l’intelligence artificielle incarnée

L’étude analyse un domaine émergent de l’intelligence artificielle : l’« embodied AI », ou intelligence artificielle incarnée (EAI). Contrairement aux systèmes purement logiciels, ces intelligences opèrent dans le monde physique. Elles perçoivent leur environnement, apprennent de l’expérience et agissent à travers des capteurs et des moyens d’action. Les auteurs citent des exemples déjà opérationnels, tels que des robots de livraison, des drones de surveillance, des robots de soins ou d’assistance domestique. Le développement de ces systèmes résulte de la convergence entre les progrès des modèles d’IA de grande taille — capables de raisonner et de planifier — et les avancées matérielles dans les domaines de la robotique, des capteurs et de l’énergie. Cette hybridation pourrait annoncer une phase d’accélération comparable à celle qu’a connue l’IA générative après ChatGPT.

L’intelligence artificielle incarnée prolonge la robotique classique, mais elle s’en distingue par l’intégration de capacités de perception, de décision et d’adaptation. Là où le robot industriel se limite à des gestes répétitifs dans un environnement contrôlé, l’EAI agit dans des contextes ouverts et évolutifs. Cette autonomie nouvelle fait émerger des risques inédits qui concernent aussi bien la sécurité physique que la vie privée, l’économie ou les relations sociales. Les régimes juridiques existants — souvent conçus pour des machines prévisibles ou des logiciels immatériels — ne suffisent plus à encadrer ces systèmes. L’étude vise dès lors trois objectifs : proposer une typologie claire des risques propres à l’EAI, évaluer la capacité des politiques publiques existantes aux États-Unis, au Royaume-Uni et dans l’Union européenne à les gérer, et formuler des orientations pour une gouvernance adaptée à ce nouveau champ technologique.

2. Une taxonomie des risques

Les auteurs classent les risques liés à l’EAI en quatre catégories principales : physiques, informationnels, économiques et sociaux. Cette approche permet d’identifier les sources de danger et les angles morts du droit actuel.

Les risques physiques sont les plus évidents car ils découlent de la matérialité même de ces systèmes. L’EAI peut causer un dommage corporel, intentionnellement ou par accident. Le risque de malveillance est réel : certains robots, notamment militaires ou civils réutilisés, peuvent être détournés pour des usages violents. Des failles dites de « jailbreak » permettent déjà à des acteurs malveillants de contourner les garde-fous intégrés aux modèles de langage, ouvrant la voie à des actions potentiellement dangereuses. Mais le risque accidentel est tout aussi préoccupant. L’EAI agit dans un monde qu’elle comprend imparfaitement et qu’elle apprend à modéliser. Le décalage entre ses simulations d’entraînement et les situations réelles, que les chercheurs nomment le « reality gap », expose à des comportements inattendus : gestes inadaptés, erreurs de jugement, défauts de perception ou réactions imprévisibles. Ce risque est accentué par la proximité croissante entre humains et machines dans les usines, les hôpitaux ou les foyers.

Les risques informationnels tiennent à la capacité de ces systèmes à collecter, traiter et exploiter des quantités massives de données. Les robots incarnés disposent de capteurs visuels, sonores, tactiles et parfois biométriques. Leur mobilité rend presque impossible le contrôle du consentement et la limitation de la collecte. Dans l’espace public ou privé, ils peuvent enregistrer des comportements, des habitudes, voire des émotions. La frontière entre surveillance et service devient floue. Par ailleurs, l’EAI hérite des faiblesses des modèles de langage : elle peut produire ou relayer de fausses informations, mais en leur donnant une matérialité. Une erreur d’interprétation visuelle ou une hallucination textuelle peuvent conduire à une action physique inappropriée. Cette capacité d’influence est amplifiée par la confiance que les utilisateurs accordent à des entités humanoïdes présentes dans leur quotidien.

Les risques économiques concernent d’abord la substitution du travail humain. Alors que l’IA virtuelle menace principalement les métiers cognitifs, l’EAI touche au travail physique. Elle peut remplacer des employés dans la logistique, la restauration, la santé, l’éducation ou la construction. À terme, elle pourrait automatiser l’essentiel des tâches productives, bouleversant la structure de l’emploi. Cette mutation pourrait accentuer les inégalités économiques, car les bénéfices de la robotisation incarnée reviendront principalement à ceux qui détiennent ou exploitent ces systèmes. Le capital nécessaire pour posséder une flotte d’EAI accroît la concentration du pouvoir économique. La dépendance à ces acteurs technologiques pourrait, selon les auteurs, limiter la souveraineté économique des États et la capacité des travailleurs à négocier leurs conditions.

Les risques sociaux enfin sont multiples. L’EAI peut reproduire des biais ou des discriminations inscrits dans ses données d’entraînement. Dans des fonctions sensibles comme le maintien de l’ordre ou les soins, ces biais peuvent se traduire par des atteintes physiques immédiates. La question de la responsabilité juridique demeure indéterminée : qui doit répondre des dommages causés par un système autonome ? L’utilisateur, le fabricant, le concepteur du logiciel ? L’absence de transparence sur le raisonnement de l’EAI fragilise la confiance du public. Les interactions prolongées avec des robots humanoïdes soulèvent en outre des enjeux psychologiques et éthiques : dépendance affective, confusion entre humain et machine, perte de repères sociaux. À plus long terme, la généralisation de ces systèmes pourrait transformer profondément les structures sociales et les représentations du travail et de la relation à autrui.

3. Analyse des politiques existantes

L’étude examine les cadres réglementaires applicables dans trois zones juridiques majeures : les États-Unis, le Royaume-Uni et l’Union européenne. Elle constate que les dispositifs actuels proviennent de domaines voisins, tels que les véhicules autonomes, la robotique industrielle, les drones ou l’IA virtuelle, mais qu’aucun ne couvre l’ensemble des risques propres à l’EAI.

Sur les plans économique et social, la réglementation demeure embryonnaire. Les normes éthiques internationales restent purement volontaires. L’étude conclut à une couverture fragmentaire : les risques physiques et informationnels bénéficient d’un encadrement partiel, tandis que les risques économiques et sociaux restent largement dépourvus de régulation.

4. Lacunes identifiées

Les auteurs identifient trois carences majeures dans les politiques publiques.

La première concerne l’absence d’un système de certification complet et adapté à la diversité des formes d’EAI. Les tests actuels, conçus pour des machines statiques ou prévisibles, ne peuvent pas évaluer la sécurité de systèmes capables d’apprendre et de s’adapter.

La deuxième lacune réside dans le manque d’outils d’évaluation et de suivi. Contrairement à l’IA logicielle, les EAI ne disposent pas de référentiels publics permettant de mesurer la robustesse, la cybersécurité ou la conformité éthique des modèles.

Enfin, le troisième déficit touche à la surveillance post-déploiement et à la responsabilité. Aucun dispositif ne définit clairement qui doit collecter et conserver les données d’incident, ni comment ces informations peuvent être exploitées pour améliorer la sécurité.

Le flou est également complet sur les questions économiques et sociales : aucune stratégie n’existe pour redistribuer les bénéfices de la robotisation, protéger les travailleurs déplacés ou prévenir la concentration de pouvoir. L’articulation entre EAI et intelligence artificielle générale, susceptible d’accélérer encore ces dynamiques, n’est abordée dans aucun texte.

5. Pistes de gouvernance proposées

L’étude propose une série de mesures concrètes destinées à combler ces lacunes. Elle recommande d’abord un investissement accru dans la recherche sur la sécurité de l’EAI, en particulier sur la fiabilité des capteurs et des actionneurs, la résistance aux cyberattaques et la coordination entre agents. Le développement de bancs d’essai et de critères d’évaluation publics est jugé prioritaire. Les auteurs suggèrent ensuite la mise en place d’une certification obligatoire avant toute mise sur le marché.

Ils plaident également pour une participation active des acteurs industriels et des organismes de normalisation. De nouvelles normes devraient imposer des mécanismes de transparence, tels que des boîtes noires enregistrant les décisions avant un incident, tout en veillant à la protection des données.

La clarification des régimes de responsabilité constitue un autre chantier essentiel. Les États doivent déterminer qui répondra des dommages causés par un EAI entièrement autonome, en s’inspirant des modèles d’entités responsables existants.

Enfin, les politiques publiques doivent anticiper les effets économiques et sociaux de cette mutation technologique.

Les auteurs évoquent des instruments comme le revenu universel, le droit à la formation ou l’accès garanti à des capacités d’IA. Ils invitent les organisations internationales à ouvrir un dialogue global sur les usages à interdire ou à encadrer strictement, notamment dans les domaines de la santé, de l’éducation et de la vie privée.

6. Discussion et limites

Les auteurs reconnaissent que leur analyse reste centrée sur les zones occidentales et ne prend pas en compte la Chine, déjà en pointe dans la régulation des véhicules autonomes et de la robotique. Ils admettent aussi que les usages militaires, bien que cruciaux, ont été exclus de leur périmètre. Les catégories de risque proposées sont simplificatrices et méritent d’être affinées. L’étude souligne que la régulation ne se résume pas à une inflation de normes : dans certains cas, les dynamiques de marché ou la concurrence en matière de sécurité peuvent jouer un rôle positif. Toutefois, le risque d’une course à la commercialisation sans garde-fou demeure. Enfin, les solutions purement techniques, aussi sophistiquées soient-elles, ne suffiront pas à garantir la sûreté. La gouvernance de l’EAI doit combiner approche technique, juridique et sociale.

7. Conclusion

L’intelligence artificielle incarnée connaît une croissance rapide, stimulée par les progrès des modèles de langage et par les investissements massifs dans la robotique. Les cadres juridiques, eux, n’ont guère évolué depuis la robotique industrielle du XXe siècle. Les auteurs appellent à une action préventive et coordonnée, avant qu’un incident majeur ou une percée spectaculaire ne précipite une réponse improvisée. Il ne s’agit pas de réinventer le droit, mais d’adapter les cadres existants aux réalités nouvelles : tester, certifier, rendre compte et prévoir. L’EAI n’est pas une rupture totale, mais un prolongement du rapport de l’humain à la machine. Elle impose toutefois une mise à jour urgente des instruments juridiques pour garantir que la prochaine révolution technologique serve l’intérêt collectif plutôt qu’elle ne l’expose à des risques irréversibles.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Techno-labrador, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire