Licencié pour avoir dénoncé des robots humanoïdes dangereux?

A propos de : Plaintiff’s Complaint for Damages, Robert Gruendel vs FIGURE AI, United States District Court, Northern District of California, Case no : 5 :25 – cv – 10094, 21 novembre 2025 :

La plainte est introduite par Robert Gruendel, ingénieur spécialisé en sécurité des robots, contre la société Figure AI, Inc., une entreprise de robotique basée en Californie qui développe des robots humanoïdes « généralistes » destinés à des usages industriels et potentiellement domestiques, reposant sur un système d’intelligence artificielle appelé Helix AI.

Selon la plainte, Gruendel est recruté en 2024 comme « Principal Robotic Safety Engineer » et chef de la sécurité produit. Il rapporte directement au CEO, avec la mission annoncée de définir et faire respecter une stratégie globale de sécurité, pour protéger les employés de Figure et les futurs utilisateurs des robots. Dès sa première semaine sur site en Californie, il constate l’absence de procédures formelles de sécurité, d’outil de remontée d’incidents et de processus d’évaluation des risques, ainsi que l’absence de véritable service interne de santé et sécurité (EHS), remplacé par un simple consultant issu du secteur des semiconducteurs. Il développera alors une « product safety roadmap » pour les différentes générations de robots (F.02, F.03, F.04, etc.), avec des exigences intégrées dans les spécifications produit et validées initialement par le CEO et le Chief Engineer. Il insiste en particulier sur les besoins de formation des employés, de dispositifs techniques de sécurité et de détection de présence, notamment en vue d’un déploiement ultérieur dans des foyers privés où la création de zones de sécurité physiques serait peu réaliste.

La plainte souligne la tension entre ce travail de sécurisation et la culture interne revendiquée de Figure, fondée sur des valeurs de vitesse (« Move Fast & Be Technically Fearless »), d’optimisme agressif et d’objectif prioritaire de mise rapide sur le marché d’un humanoïde commercialisable. Gruendel affirme que plusieurs de ses propositions de réduction des risques sont rejetées ou édulcorées au motif qu’elles nuiraient à l’attrait du produit pour les investisseurs ou à l’esthétique du robot.

En parallèle, Gruendel développe un plan de sécurité pour l’entrée des robots dans les foyers, identifiant les normes de sécurité applicables, les exigences réglementaires et les risques juridiques. Il en briefe le Chief Engineer en personne, mais le CEO ne participe pas et ne réagit pas à un résumé qu’il lui adresse. Il explique que la détection d’êtres vivants, la classification des objets et la capacité à arrêter ou ralentir le robot pour éviter des blessures sont des conditions centrales pour autoriser une présence domestique des robots. Il travaille aussi sur la sécurité lors de la collecte de données en conditions réelles, notamment à domicile, en soulignant la nécessité de réaliser des « risk assessments » formels pour démontrer la diligence de l’employeur en matière de sécurité des employés qui entraînent les modèles d’IA sur le terrain.

En 2025, Gruendel interagit avec plusieurs investisseurs de Figure auxquels il présente la feuille de route de sécurité produit et un « white paper » détaillant la stratégie de sécurité par génération de robots. Selon lui, cette stratégie, présentée aux investisseurs comme un plan solide et structurant, est ensuite sensiblement « déclassée » ou affaiblie peu après la clôture de la levée de fonds..

Un épisode central concerne les tests d’impact sur le robot F.02 en juillet 2025. Lors de ces tests, un ingénieur programme le robot pour frapper à pleine puissance. Les mesures montreraient des forces vingt fois supérieures au seuil de douleur humaine tel que défini dans la norme ISO 15066, utilisée pour les robots collaboratifs en environnement partagé. Gruendel estime que ces impacts dépasseraient, par un facteur supérieur à deux, la force nécessaire pour fracturer le crâne d’un adulte. Il informe le CEO par Slack que le robot est capable d’infliger des blessures graves et permanentes. Le message serait resté sans réponse. Il prévient également le Chief Engineer, en recommandant de tenir les employés davantage à distance. Dans la foulée, le nouveau responsable EHS, organise une réunion de discussion des mesures de réduction des risques.

Gruendel décrit aussi de nombreux « near misses » non documentés, révélés par des retours d’employés et une enquête anonyme interne qu’il a mise en place. Il cite notamment un incident où un F.02, après dysfonctionnement, aurait donné un coup dans un réfrigérateur en acier inoxydable, creusant une entaille de 6 mm dans la porte, à proximité immédiate d’un employé. Face à ces données, il met à jour les évaluations de risques pour la collecte de données à domicile, en prévoyant des mesures comme la formation renforcée, la délimitation claire des zones de stationnement des personnes, l’utilisation de tapis ou barrières, et la présence constante d’un observateur de sécurité muni d’un arrêt d’urgence (E-Stop).

La plainte insiste sur l’importance de l’E-Stop comme mesure de sécurité minimale et composante clé du raisonnement de risque qu’il a formalisé, notamment dans les documents présentés aux investisseurs. Or, en août 2025, le Chief Engineer aurait décidé de mettre fin à un projet de certification de l’E-Stop, ce qui, selon Gruendel, remet en cause la fiabilité de ce dispositif. Il envoie alors un courriel détaillé à Edelberg, avec copie aux départements commercial et juridique, pour rappeler la nécessité de prouver la fiabilité de l’arrêt d’urgence pour la sécurité des employés. Deux membres de l’équipe commerciale lui auraient ensuite fait part de leur inquiétude de le voir consigner ces critiques par écrit.

Dans la même période, Gruendel constate qu’une fonction de sécurité sur le robot F.02 a été supprimée par un ingénieur en raison de son aspect esthétique. Il interpelle le CEO par Slack pour lui demander si les modifications de sécurité doivent être approuvées par lui. Le CEO répondrait qu’il ne sait pas de quoi il parle et qu’il est trop occupé. Gruendel finit par négocier une solution intermédiaire avec l’ingénieur, mais en retient le signal d’une dévalorisation de la sécurité dans les arbitrages internes.

Parallèlement, après que le CEO a indiqué ne pas être convaincu par ses évaluations des risques juridiques liés à l’usage domestique des robots, Gruendel est chargé d’identifier un cabinet d’avocats externe spécialisé en sécurité des produits de consommation. Il mène des entretiens avec plusieurs cabinets et, fin août 2025, prévoit de passer à l’étape suivante avec un grand cabinet. Lorsqu’il apprend que le CEO soutient le projet de collaboration avec ce cabinet, il lui écrit que c’est « le moment fort de sa semaine », mais il en profite aussi pour l’alerter sur une « phase de rétrogradation de la sécurité », en énumérant plusieurs exemples. Quelques jours plus tard, le CEO conteste cette description, et Gruendel réplique avec d’autres exemples, tout en se disant satisfait de pouvoir enfin discuter de sécurité. Il affirme que, sur la durée, le CEO aurait progressivement réduit la fréquence de leurs réunions et cessé de répondre à beaucoup de ses messages à mesure que ses alertes se multipliaient.

Fin août 2025, Gruendel écrit également à un responsable de Helix AI pour récapituler une réunion où il a montré des comportements dangereux de robots, dont une photo d’un robot à environ deux pieds de frapper la tête d’une personne. Le 29 août, il coanime une formation à la sécurité des opérateurs de téléopération, en insistant sur les risques élevés pour les employés liés aux capacités physiques et à l’imprévisibilité de robots pilotés par une IA comme Helix AI, qu’il décrit par ailleurs comme entraînant des risques spécifiques par rapport à des contrôleurs de machines classiques (hallucinations, décisions inexplicables, tendances de « self-preservation », apparence de conscience).

Le 2 septembre 2025, quatre jours après cette formation mettant en avant les risques des robots pour les employés et quelques semaines après ses critiques écrites les plus précises sur l’abandon de la certification de l’E-Stop et la dangerosité potentielle des robots pour les employés et futurs clients, Gruendel est convoqué par le vice-président chargé de la croissance et informé de son licenciement immédiat. Le motif donné est un « changement de direction commerciale » lié au marché domestique. Selon la plainte, ce motif est un prétexte: il avait reçu peu de temps auparavant une augmentation salariale et des éloges pour ses performances, et son travail sur la sécurité à domicile faisait précisément partie de la stratégie prétendument abandonnée. Il souligne que sa documentation finale sur les forces générées par les robots, vingt fois supérieures au seuil de douleur et potentiellement suffisantes pour causer des blessures graves, avait été finalisée juste avant sa mise à pied.

Sur le plan juridique, la plainte soutient que ces faits constituent des représailles interdites en vertu du Code du travail californien. Sous l’angle de la section 1102.5, Gruendel affirme avoir divulgué, en interne, à des supérieurs hiérarchiques dotés de pouvoirs décisionnels, des informations qu’il avait des raisons de considérer comme révélant des violations de lois et de règlements en matière de sécurité au travail, y compris des exigences OSHA et des normes de sécurité de l’État de Californie. Sa rupture serait intervenue à cause de ces divulgations, en violation de l’interdiction de sanctionner un employé qui refuse de participer à une activité illégale ou qui signale une non-conformité. Au titre de la section 98.6, il invoque la protection des employés qui se plaignent ou dénoncent des violations des lois du travail ou des règles de sécurité. La plainte insiste sur la proximité temporelle entre ses démarches et son licenciement (moins de 90 jours), ce qui, selon le droit californien actuel (SB 497), fait naître une présomption réfragable de représailles.

Enfin, l’action pour « wrongful termination in violation of public policy » s’appuie sur l’idée que la Californie reconnaît une politique publique fondamentale de protection des lanceurs d’alerte en matière de sécurité, d’encouragement à la dénonciation de risques pour la santé et la sécurité, et d’interdiction des licenciements motivés par ces démarches. En licenciant Gruendel pour avoir soulevé des risques graves liés à des robots humanoïdes dotés d’IA, Figure aurait violé cette politique. La plainte réclame la réparation des pertes économiques (salaires, avantages, opportunités de carrière, atteinte à la réputation professionnelle), des dommages compensatoires et généraux, des pénalités statutaires, des dommages punitifs pour représailles prétendument volontaires et malveillantes, ainsi que les honoraires d’avocat et les intérêts avant et après jugement.

Commentaire : on verra le sort de cette procédure, et notamment l’argument du congé-représailles, mais c’est la première fois que l’auteur de ces lignes accède ainsi à la cuisine interne de fabricants de robots humanoïdes. La science-fiction à nos portes, on relira Isaac Asimov !

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans Droit US, intelligence artificielle, Licenciement abusif, est tagué , , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire