
Le commentaire de Francesa Palmiotto (Palmiotto, Francesca, Commentary on Article 5(1)(d) AI Act: The Prohibition of Criminal Risk Assessment (January 21, 2026), preprint : M. Ebers & M. Zou (eds) AI Act Commentary, Beck/Hart/Nomos, forthcoming (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6115546)) commente l’article 5, paragraphe 1, lettre d), du règlement européen sur l’intelligence artificielle (RIA / AI Act), entré en vigueur en février 2025, qui interdit certaines pratiques d’IA en matière d’évaluation du risque pénal individuel. Il s’inscrit dans un contexte de forte controverse autour des outils dits de « criminal risk assessment », largement utilisés ou expérimentés dans plusieurs pays pour prédire le comportement criminel futur de personnes, que ce soit au stade policier, judiciaire ou pénitentiaire. L’objectif central de la disposition commentée est de donner une traduction normative concrète au principe de présomption d’innocence à l’ère de l’IA.
L’interdiction vise les systèmes d’IA mis sur le marché, mis en service ou utilisés pour évaluer ou prédire le risque qu’une personne physique commette une infraction pénale, lorsque cette évaluation repose exclusivement sur le profilage ou sur l’analyse de traits de personnalité ou de caractéristiques personnelles. Sont ainsi prohibées les formes de « prédiction de la criminalité » détachées de faits concrets, qui infèrent une dangerosité future à partir de données personnelles, démographiques, sociales ou comportementales. L’auteur souligne que cette interdiction constitue la catégorie de risque la plus grave du règlement : sa violation expose aux sanctions financières maximales prévues par l’AI Act.
L’article distingue clairement cette interdiction des systèmes simplement qualifiés de « à haut risque » dans l’annexe III du règlement. La ligne de partage repose sur le critère du « solely » : lorsqu’un système prédit un risque pénal uniquement à partir du profil ou de la personnalité, il est interdit ; lorsqu’il s’appuie aussi sur des faits objectifs et vérifiables liés à une activité criminelle déterminée, il peut être autorisé, sous le régime strict des systèmes à haut risque. Cette architecture reflète une volonté politique de tracer une ligne rouge entre prévention fondée sur des soupçons individualisés et prédiction abstraite de comportements futurs.
L’auteur analyse en détail la notion de « criminal risk assessment ». Il s’agit de démarches prospectives visant à estimer la probabilité qu’une personne commette une infraction à l’avenir. Ces outils sont utilisés à différents stades : police prédictive, décisions de détention provisoire, de libération conditionnelle, de probation ou de fixation de la peine. Deux grandes catégories sont identifiées. D’une part, la police prédictive, qui peut être fondée soit sur des lieux (où et quand un crime est susceptible de se produire), soit sur des personnes (qui est susceptible de commettre un crime). D’autre part, les systèmes d’évaluation du risque de récidive, qui attribuent des scores individuels à partir de données massives et de questionnaires.
L’interdiction de l’article 5(1)(d) ne vise que les systèmes centrés sur les personnes. Les outils purement géographiques, limités à la prédiction de zones ou de moments à risque, sont en principe exclus, tant qu’ils ne sont pas réinjectés dans une évaluation individuelle. En revanche, dès lors que des données de localisation sont utilisées pour inférer le risque qu’une personne précise commette une infraction (par exemple en raison de son lieu de résidence), le système redevient personnel et peut tomber sous le coup de l’interdiction.
Une partie centrale de l’article est consacrée au concept de profilage. Celui-ci est repris du droit de la protection des données et couvre tout traitement automatisé visant à évaluer des aspects personnels d’un individu. L’auteur insiste sur l’importance du « profilage de groupe », très fréquent en pratique : l’individu est évalué non pour ce qu’il a fait, mais parce qu’il ressemble statistiquement à un groupe considéré comme à risque. Les analyses de réseaux sociaux, qui déduisent une dangerosité du simple fait d’être lié à des personnes déjà identifiées par la police, en sont un exemple typique. Le commentaire confirme que ce type de profilage est bien visé par l’interdiction lorsqu’il est appliqué à des personnes déterminées.
S’agissant des « traits de personnalité ou caractéristiques », l’AI Act ne fournit pas de définition exhaustive. Le considérant 42 donne des exemples larges : nationalité, lieu de naissance, résidence, situation familiale, niveau d’endettement ou type de véhicule. L’auteur souligne que ces critères, pris isolément ou combinés, ne peuvent fonder une prédiction pénale compatible avec les principes fondamentaux du droit pénal.
L’interprétation du terme « solely » fait l’objet d’une analyse approfondie. L’auteur rejette une lecture réductrice qui consisterait à dire que l’interdiction disparaît dès qu’un humain intervient dans le processus. Une telle approche viderait la règle de sa substance et créerait une insécurité juridique pour les fournisseurs de systèmes. Il propose au contraire une interprétation structurelle : est interdit tout système conçu pour prédire la criminalité en l’absence de faits objectifs constituant un soupçon raisonnable. Cette lecture s’appuie sur la jurisprudence de la Cour européenne des droits de l’homme et de la Cour de justice de l’Union européenne, qui exigent, pour toute ingérence pénale, l’existence d’éléments factuels concrets justifiant un soupçon individualisé.
Dans cette logique, la seconde phrase de l’article 5(1)(d), souvent présentée comme une exception, est analysée comme une simple clarification de périmètre. Les systèmes d’IA utilisés pour assister l’évaluation humaine de l’implication d’une personne dans une activité criminelle déjà établie par des faits objectifs ne sont pas visés par l’interdiction. Par exemple, l’usage d’outils biométriques ou d’analyses de traces dans le cadre d’une enquête portant sur un crime commis reste possible, même si ces systèmes demeurent soumis au régime des IA à haut risque.
L’article recense enfin plusieurs exclusions importantes. L’interdiction ne s’applique pas à l’évaluation du risque pénal de personnes morales, ni aux infractions administratives ou disciplinaires. Elle ne s’applique pas non plus aux usages exclusivement liés à la sécurité nationale, même si l’auteur met en garde contre les systèmes à double usage, qui basculent dans le champ de l’AI Act dès qu’ils sont utilisés, même temporairement, à des fins de maintien de l’ordre.
En conclusion, le commentaire montre que l’AI Act opère un choix de fond : il ne prohibe pas l’usage de l’IA en matière pénale en tant que tel, mais interdit une certaine vision prédictive de la criminalité, fondée sur des profils et des probabilités détachées de faits. Pour les praticiens, y compris hors UE, cette analyse éclaire les standards européens émergents en matière de droits fondamentaux, qui pourraient influencer à terme les débats suisses sur l’usage de l’IA dans la justice pénale
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence artificielle, CAS en Protection des données – Entreprise et Administration