
A propos de Marco Germanò, The Privatisation of Evidentiary Authority in the Age of AI-Generated Video, Symposium on AI & Democracy, janvier 2026 (https://www.law.kuleuven.be/ai-summer-school/blogpost/Blogposts/the-privatisation-of-evidentiary-authority-in-the-age-of-ai-generated-video):
Le billet part d’un constat : pendant longtemps, dans les démocraties libérales, l’image (photo puis vidéo) a servi de point d’appui partagé pour juger publiquement des faits. Même sans définition parfaite, on pensait pouvoir « reconnaître » ce qui est réel en le voyant.
L’essor de la vidéo générée par IA fragilise cette intuition.
Des outils désormais capables de produire des scènes très réalistes effacent la frontière entre document et fabrication. Il ne s’agit pas seulement d’un problème de « fausses nouvelles » au sens classique, mais d’une crise plus profonde : la difficulté collective à décider ce qui mérite d’être tenu pour crédible et, donc, ce qui peut entrer dans le débat public comme base commune.
L’auteur distingue ainsi une crise « de connaissance » et une crise « de responsabilité ».
Sur le premier plan, il explique que la démocratie n’exige pas que tout le monde partage les mêmes convictions ou interprétations, mais qu’elle a besoin de procédures et d’habitudes sociales permettant de tester la solidité d’une information. Journalisme, tribunaux, archives, controverse contradictoire : ces dispositifs n’ont jamais garanti l’absence de mensonge, mais ils ont fourni une confiance minimale dans la manière dont une preuve est reconnue, vérifiée et discutée. Avec la vidéo synthétique, l’enjeu n’est pas uniquement d’être trompé par un contenu faux ; c’est la perte d’orientation quand « tout a l’air plausible ». Dans un tel contexte, la crédibilité devient rare et instable. La vie démocratique s’abîme alors avant même qu’une intoxication précise ne triomphe, parce que les citoyens et les institutions ne disposent plus de repères partagés pour trier, vérifier et débattre.
Sur le second plan, l’auteur montre que les pratiques de vérification se déplacent : on ne peut plus se fier à l’œil humain, et l’on dépend de plus en plus d’outils techniques (détecteurs de filigranes, logiciels de vérification, systèmes de traçabilité de l’origine des contenus). Or ces infrastructures sont majoritairement privées. Le cœur de la critique est là : l’autorité qui permet de dire si une vidéo est « authentique » tend à se concentrer entre les mains d’acteurs industriels, souvent les mêmes que ceux qui développent et diffusent les systèmes génératifs par ailleurs. Ce basculement transforme une fonction historiquement ancrée dans des institutions contestables publiquement (presse, justice, expertise indépendante) en une fonction organisée par des entreprises, avec des objectifs d’abord commerciaux et des mécanismes de contrôle démocratique limités. L’auteur évoque des stratégies différentes selon les acteurs (certains annoncent des garde-fous et un déploiement progressif, d’autres avancent plus vite en résistant davantage à la surveillance externe), mais dans tous les cas le résultat est similaire : des contenus très réalistes circulent à grande échelle, parfois sans étiquetage efficace, et atteignent le public avant que des protections robustes soient en place.
L’auteur souligne aussi le rôle d’initiatives de standardisation, comme les standards volontaires de traçabilité et de filigranage portés par des coalitions industrielles. Ces démarches peuvent être utiles techniquement, mais elles se construisent dans des espaces où les citoyens et les autorités publiques pèsent souvent moins que les grandes plateformes et entreprises. Même bien intentionnées, elles restent contraintes par des priorités économiques. Le risque, selon l’auteur, est une « privatisation » de la confiance procédurale : les entreprises qui contrôlent les canaux de vérification finissent par définir quels signaux de fiabilité sont visibles, quelles contestations sont possibles et quelles preuves circulent. Autrement dit, elles influencent les conditions mêmes de ce qui devient « visible » et « actionnable » dans l’espace public, ce qui peut créer une dépendance générale à une authenticité reçue « sur la foi » des systèmes privés.
La dernière partie propose des directions pour restaurer la crédibilité et la vérification comme des biens publics. D’abord, l’auteur défend l’idée que la lisibilité de l’origine des images et vidéos doit être traitée comme une exigence démocratique : les personnes devraient pouvoir savoir si un contenu a été créé, modifié ou généré, comprendre la logique des labels et signaux de provenance, et surtout pouvoir les questionner et les contester. Cela implique que les standards techniques ne soient pas pilotés uniquement par quelques acteurs dominants et que la transparence ne repose pas sur le seul volontariat, mais soit appuyée par des règles et un contrôle public.
Ensuite, il plaide pour des infrastructures publiques ou d’intérêt général de vérification : laboratoires ouverts, interfaces de vérification transparentes, partenariats civiques associant entreprises, universités, rédactions et administrations. L’objectif n’est pas de créer un « ministère de la vérité », mais d’éviter que la capacité de vérifier soit réservée à ceux qui peuvent payer ou à ceux qui possèdent les outils, et de garantir un accès plus égal à des moyens de test de l’authenticité.
Enfin, il estime que la gouvernance des systèmes génératifs doit intégrer des exigences démocratiques dès la conception : face à la pression concurrentielle et à l’insuffisance possible des cadres actuels pour prévenir des dommages rapides (par exemple en période électorale), des régulateurs indépendants et des mécanismes publics d’autorisation ou de conditions d’accès peuvent être nécessaires pour que l’étiquetage, la traçabilité et la diffusion répondent à des valeurs civiques, pas seulement à des intérêts de marché.
Le texte se termine sur une dimension culturelle : les démocraties ne survivent pas en éliminant toute fausseté, mais en maintenant une discipline collective de vérification, une capacité à ralentir, contrôler, délibérer avant de croire. À l’ère de la production synthétique à grande vitesse, retrouver cette « patience civique » devient central.
La conclusion réaffirme la thèse : la démocratie repose moins sur une vérité unique que sur des procédures partagées pour déterminer ce qui est crédible ; la vidéo générée par IA fragilise ces procédures en déplaçant l’autorité de vérification vers le privé. Reprendre collectivement la main sur les règles, les outils et la supervision de l’authenticité est donc présenté comme une condition pour « voir et juger ensemble » dans l’âge des médias synthétiques.
Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle, CAS en Protection des données. Entreprise et Administration