A propos des deepfakes en politique : typologie et analyse fine

A propos de Walker, Christina and Walker, Christina and Birrer, Alena and Birrer, Alena and Wack, Morgan and Wack, Morgan and Schiff, Kaylyn and Schiff, Daniel and Messina, JP, Beyond Deception: A Functional Typology of Political Deepfakes (November 03, 2025). (Available at SSRN: https://ssrn.com/abstract=5717943. Voir aussi : https://www.techpolicy.press/scrutinizing-the-many-faces-of-political-deepfakes/):

L’article part du constat que la recherche et le débat public traitent souvent les deepfakes politiques comme s’ils étaient surtout des vidéos très réalistes destinées à tromper l’électeur et à provoquer un scandale. Or, dans les faits, les usages observés sont beaucoup plus variés.

Les auteurs prennent comme point de départ des épisodes concrets, par exemple des vidéos attribuées au président Zelensky diffusées en 2023, dont certaines étaient des parodies grossières, d’autres de la propagande peu efficace, et quelques-unes réellement trompeuses.

Cette diversité crée un angle mort si l’on reste dans une logique binaire “authentique vs. mensonger” : on risque de sur-réglementer des contenus expressifs ou satiriques, et de sous-préparer les réponses aux contenus réellement dangereux. Ils rappellent aussi que les deepfakes ne menacent pas seulement par leur capacité à convaincre, mais aussi par leur capacité à installer le doute et à offrir un “prétexte au mensonge” : un acteur pris en défaut peut rejeter une preuve authentique en affirmant qu’il s’agit d’un faux, ce qui fragilise l’écosystème informationnel et la confiance collective.

Pour dépasser cette vision réductrice, les auteurs proposent une typologie fonctionnelle, conçue pour décrire comment un deepfake politique “fonctionne” dans la communication politique, plutôt que de présumer son effet.

Ils retiennent une définition large du deepfake politique : un contenu audio, image ou vidéo, partiellement ou totalement synthétique, dont le but ou l’effet est d’influencer des acteurs, des institutions ou des processus politiques ; cette définition inclut aussi des manipulations simples (“cheapfakes”) et ne suppose pas nécessairement l’usage de techniques de deep learning. Point important pour des juristes : l’unité d’analyse n’est pas seulement le fichier (la vidéo ou l’image), mais “l’instance de partage” — le même contenu peut être classé différemment selon qui le diffuse, avec quel texte d’accompagnement, dans quel contexte et via quel canal.

La typologie est organisée en cinq dimensions qui se combinent :

La première, le contenu, décrit ce que montre le deepfake pris isolément : qui ou quoi est visé (un politicien, un groupe, une institution, un processus comme le vote, un enjeu, etc.), le “genre” (divertissement/expressif, éducatif, propagande, mobilisation symbolique, publicité, rumeur/gossip, contenu incohérent), le contexte suggéré (scandale, crime, crise, élection, guerre, relations internationales, enjeux touchant des groupes marginalisés, débats sur la régulation des deepfakes, etc.), le ton du créateur envers la cible (positif, négatif, neutre/ambigu), et d’éventuels dommages représentés (violence, haine, stéréotypes, atteintes à des normes démocratiques, ou aucun).

La deuxième dimension, le design, décrit la “fabrication” : support (audio/image/vidéo), techniques (montage simple, échange de visage, génération par modèle, clonage de voix, découpage/assemblage audio ou vidéo), degré de réalisme (réaliste, “étrange”, exagéré, stylisé type mème), et part de synthèse (entièrement synthétique, surtout synthétique, surtout authentique, authentique). Les auteurs insistent sur un point contre-intuitif mais utile en pratique : réalisme et sophistication technique ne se confondent pas, car des manipulations simples peuvent paraître crédibles, tandis que des contenus entièrement générés peuvent être volontairement caricaturaux.

La troisième dimension, l’intentionnalité, vise ce que cherche à obtenir le diffuseur au moment du partage : persuasion politique, promotion de théories complotistes, divertissement, marketing, propagation d’un récit/rumeur, ou démarche éducative (sensibilisation), ainsi que le ton du diffuseur envers la cible et l’éventuel “timing” stratégique (publication calée sur un événement très visible).

La quatrième dimension, la divulgation, décrit si et comment le caractère synthétique est signalé : qui divulgue (créateur/diffuseur, plateforme, concepteur du modèle via filigrane ou métadonnées, ou personne), où (dans le contenu, dans le texte du post, ailleurs), sous quelle forme (texte, marque visuelle, métadonnées, autre), avec quelle visibilité (élevée à nulle) et quel degré de formalisme.

La cinquième dimension, la dissémination, porte sur la circulation : type d’acteur (célèbre ou non hors ligne, grand ou petit nombre d’abonnés en ligne), type de plateforme (interactive ou non, one-to-many ou one-to-one), et schéma de diffusion (coordonné ou non, automatisé ou non).

Pour montrer l’intérêt concret de cette grille, l’article l’applique à 70 cas “saillants” observés autour de l’élection présidentielle américaine de 2024, collectés dans une fenêtre de quatre semaines (deux semaines avant et deux après) selon une base d’incidents dédiée.

Résultat principal : le scénario souvent redouté d’une vague de deepfakes hyperréalistes, négatifs et massivement diffusés n’est pas ce qui domine dans cet échantillon.

La plupart des contenus visent un individu politique (environ 86%), relèvent du registre expressif/divertissant (environ 84%), sont des images plutôt que des vidéos (environ 84%), et sont fréquemment stylisés en “mèmes” (environ 43% dans la catégorie “mème-ifié”). Les contenus créés avec des outils de génération avancés sont majoritaires (près de 89%), et une large part est entièrement synthétique (environ 80%).

Sur le fond, les deepfakes pro-cible sont au moins aussi fréquents que les deepfakes anti-cible : environ la moitié expriment un ton positif envers la personne représentée, contre un peu plus de 40% négatifs (le reste étant neutre ou ambigu). Autre point saillant pour des praticiens : la divulgation est le plus souvent absente (dans environ 86% des cas), et la diffusion provient majoritairement de comptes peu connus avec peu d’abonnés (environ 76%), ce qui suggère une production abondante mais pas nécessairement portée par des acteurs institutionnels très visibles.

Les auteurs proposent ensuite une classification simplifiée en 2×2 pour parler plus clairement des familles de deepfakes, en croisant le réalisme (réaliste vs. non réaliste) et le ton (positif vs. négatif). Cela donne quatre catégories : des deepfakes réalistes et négatifs (“darkfakes”), qui correspondent au cas le plus “inquiétant” dans l’imaginaire public, mais qui ne représentent ici qu’une petite minorité (de l’ordre de 10–12% selon le comptage présenté) et proviennent uniquement de comptes à faible audience ; des deepfakes réalistes et positifs (“glowfakes”), également rares (environ 10%) ; des deepfakes non réalistes et positifs (“fanfakes”), les plus fréquents (environ 43–44%), qui valorisent un candidat comme dans une fiction de fan ; et des deepfakes non réalistes et négatifs (“foefakes”), aussi fréquents (environ 35%), qui caricaturent l’adversaire, souvent sur un mode narratif ou culturel (héros/vilains).

Le message sous-jacent est que l’essor d’outils puissants ne se traduit pas mécaniquement par davantage de contenus trompeurs : dans cet échantillon, la génération avancée est souvent mobilisée pour des productions positives, expressives ou satiriques, tandis que des attaques peuvent passer par des montages plus simples, parfois plus “contrôlables” pour atteindre un effet précis.

Dans la discussion, les auteurs soulignent que la typologie sert d’abord à créer un langage commun pour comparer des cas, mesurer des tendances et concevoir des réponses proportionnées. Ils reconnaissent aussi des limites importantes : données surtout anglophones, centrées sur des plateformes et une période spécifiques, et classification qui comporte une part de jugement.

Surtout, ils insistent sur la difficulté à mesurer l’impact réel : il est plus facile de catégoriser des impacts possibles que de prouver ce qui a effectivement changé dans l’opinion ou dans un résultat électoral. Ils ajoutent donc, en complément, une sous-typologie des impacts qui distingue le type d’impact (réputationnel, électoral, institutionnel, cohésion sociale, réglementaire, éducatif), l’échelle (de l’individu à la société), la probabilité (réalisé, plausible, spéculatif) et la temporalité (immédiat, différé, durable). Un point utile pour la gouvernance est l’idée que les dommages les plus importants peuvent être cumulatifs et systémiques : même des contenus “mèmes” apparemment peu dangereux peuvent, par accumulation, contribuer à éroder la confiance, à brouiller les repères et à polariser durablement, ce qui n’est pas bien traité par des réponses focalisées sur chaque incident pris isolément.

Sur le plan pratique, la proposition centrale est de mieux “instrumenter” l’observation : incident reporting plus standardisé, analyses comparables entre pays et événements, et réponses plus ciblées selon les profils (par exemple, distinguer les contenus réalistes sans divulgation, diffusés de manière coordonnée, des contenus ouvertement satiriques). Pour les plateformes et régulateurs, l’article suggère qu’une politique efficace ne peut pas se limiter à traquer l’hyperréalisme trompeur ; elle doit aussi tenir compte des usages expressifs, de l’absence fréquente de divulgation, des canaux de diffusion (y compris one-to-one), et du risque d’effets cumulatifs.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Droit de la protection des données

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans Deepfakes, intelligence artificielle, Protection de la personnalité, Protection des données, est tagué , , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire