Intelligence artificielle et vie après la mort

Quelques réflexions tirées de Degni, F. (2025). The Afterlife in the Age of AI A Psychological, Ethical, and Technological Analysis. Politi Sci Int, 3(2), 01-13 (https://www.opastpublishers.com/open-access-articles/the-afterlife-in-the-age-of-ai-a-psychological-ethical-and-technological-analysis.pdf):

La rencontre entre l’intelligence artificielle et la manière dont les sociétés pensent la mort et l’au-delà ne relève plus de la spéculation. Elle irrigue déjà des usages concrets—avatars vocaux, «chatbots» mimant le style d’un défunt, espaces mémoriels numériques—qui bouleversent les repères psychologiques, éthiques, techniques et juridiques classiques. L’auteur propose une analyse interdisciplinaire et structurée de ces phénomènes, en posant quatre questions directrices: quels effets sur les processus de deuil, quelles capacités réelles des technologies actuelles, quelles garanties éthiques et réglementaires, et quels rapports avec les traditions culturelles et religieuses ? Cette grille, argumente-t-il, est devenue urgente à mesure que ces services migrent du laboratoire vers le marché. Elle doit guider aussi bien la doctrine que les politiques publiques et la pratique des conseils, compte tenu du caractère transfrontalier de ces services.

Sur le terrain psychologique, l’article rappelle d’abord que les croyances d’outre-tombe ont des effets ambivalents, parfois protecteurs face à l’angoisse de mort et au chagrin, parfois anxiogènes selon les contextes culturels et la manière dont elles sont investies. La littérature montre, d’un côté, une baisse de l’anxiété chez des personnes âgées croyant à une forme de survie, ou des trajectoires de deuil plus adaptatives lorsqu’une « réunion» avec le conjoint décédé est envisagée ; de l’autre, certains sous-groupes associent des croyances spécifiques à davantage de symptômes dépressifs. L’auteur rattache ces différences à des mécanismes de «mise en sens» de la mort : replacer le décès dans un récit culturel cohérent confère une forme d’immortalité symbolique et de résistance au stress existentiel. Dans ce cadre, les objets numériques de mémoire—pages commémoratives, archives interactives—peuvent soutenir la construction d’un sens, mais aussi, si mal conçus ou mal utilisés, fixer la douleur et retarder l’acceptation.

L’article mobilise ensuite la théorie de l’attachement et la notion de «liens continus» pour penser ce que change l’IA. Plutôt que d’«oublier», nombre de personnes endeuillées entretiennent un lien intérieur durable avec le défunt, ce qui peut être sain. Les dispositifs numériques matérialisent et externalisent ce lien : pour des sujets sécures, ils jouent éventuellement un rôle transitoire et soutenant ; pour des sujets anxieux, ils peuvent cristalliser une dépendance problématique face à des représentations interactives trop «présentes». Les recherches sur les mémoriaux en ligne montrent déjà ce glissement: la persistance de profils et de contenus sert d’«ancrage» pour le lien; l’IA ajoute une dimension active et mimétique qui brouille parfois les frontières entre souvenir et déni. L’auteur insiste sur l’hétérogénéité des effets selon l’âge, la littératie numérique, les styles d’attachement et les cultures du deuil.

La partie technologique dresse un état des lieux : les simulations posthumes reposent aujourd’hui surtout sur des modèles de langage entraînés sur les traces textuelles d’une personne—courriels, messages, publications, écrits—afin d’en reproduire le style, le registre de connaissances et certaines préférences. Des offres commerciales s’appuient sur cette logique, parfois complétée par des voix clonées avec peu de données, ce qui renforce l’impact émotionnel de l’interaction. Mais ces systèmes, rappelle l’auteur, n’ont ni mémoire épisodique, ni conscience autobiographique, ni capacité autonome de développement émotionnel : ils restent des algorithmes de mise en correspondance statistique, susceptibles de paraître «justes» dans de brefs échanges puis de révéler leurs étrangetés à l’épreuve du temps. Les progrès envisagés—interfaces cerveau-machine, entraînement multimodal plus contextuel, meilleure modélisation temporelle de la personnalité, hybridation avec des cadres éthiques explicites—demeurent à différents degrés hypothétiques; en tout état de cause, la science-fiction ne se confond pas (encore ?)  avec l’état de l’art.

Au plan de l’infrastructure, des exigences concrètes émergent et intéressent directement les juristes: collecte multiplateforme et multimodale, conservation sûre et pérenne, pré-traitements pour structurer des données hétérogènes, protocoles de formation limitant les biais, interfaces d’accès adaptées aux endeuillés. Des défis de viabilité se posent—continuité de service sur des décennies, intégrité et portabilité des données dans un paysage technique mouvant, modèles économiques soutenables—qui devront être intégrés dans la contractualisation, la gouvernance des plateformes et les mécanismes de contrôle. La figure consacrée à l’architecture technique illustre ces couches successives, de l’ingestion de données au moteur d’IA et à l’interface.

L’examen des cas d’usage structure le paysage en quatre familles. D’abord, des plateformes de récit de vie, fondées sur des entretiens enregistrés en amont et restitués de façon interactive; elles privilégient l’authenticité archivistique à la génération de réponses inédites. Ensuite, des «recréations» conversationnelles de personnalité, héritières des chatbots relationnels, adaptables à des finalités mémorielles. Troisièmement, des environnements de réalité virtuelle ou augmentée visant une présence incarnée—visuelle et auditive—du défunt; leur promesse se heurte à de lourdes contraintes techniques et éthiques. Enfin, des services de messages différés, déclenchés par le calendrier ou des événements, misant sur l’agence du sujet de son vivant plutôt que sur la simulation algorithmique.

Les retours d’expérience restent parcellaires mais instructifs. Des études qualitatives signalent des vécus partagés entre réconfort et malaise: sentiment de proximité restaurée, d’un côté; gêne, de l’autre, lorsque l’avatar contredit des souvenirs, simplifie des traits moraux complexifs ou «improvise» hors caractère. Deux contextes thérapeutiques se distinguent: la préparation à la mort, où la création d’un legs numérique peut réduire l’anxiété et soutenir le sens; et des protocoles de deuil compliqué, dans lesquels des outils numériques sont intégrés prudemment, sous supervision, à une démarche clinique. Les modèles contemporains du deuil—oscillation entre confrontation à la perte et restauration, reconstruction du sens—offrent une boussole pour calibrer usages et limites.

Le cœur éthique du texte se concentre sur deux axes: consentement et autonomie, puis vie privée et dérives. L’auteur plaide pour un consentement véritablement informé, difficile à atteindre dans un domaine qui évolue vite: la personne devrait pouvoir comprendre les principes du système, anticiper ses impacts psychologiques sur ses proches, borner les sources de données et les paramètres de simulation, fixer une durée d’activation et organiser la révocabilité par directives anticipées. Il suggère d’aller au-delà du seul consentement pour intégrer une «dignité posthume» captant l’effet des représentations numériques sur la mémoire sociale du défunt. Ces exigences rejoignent des dispositifs concrets de design: signalement explicite du caractère artificiel, indicateurs de confiance, garde-fous cliniques pour les publics vulnérables, et revue indépendante des applications sensibles.

S’agissant de la vie privée, le texte souligne des angles morts récurrents des cadres classiques lorsqu’on passe au-delà de la mort. Plusieurs points de vigilance sont détaillés: l’«enchevêtrement» des données de tiers dans des conversations ou médias qui, réutilisés pour entraîner un modèle, engagent d’autres personnes sans leur assentiment; la «contexte-dépendance» des contenus, anodins dans une époque et problématiques quand ils ressurgissent des années plus tard; l’«inférentiel», lorsqu’un système déduit des opinions intimes non divulguées; et la temporalité, les usages post mortem se prolongeant indéfiniment alors que les attentes des intéressés n’avaient pas envisagé cette durée. L’auteur discute des propositions pour des droits spécifiques sur les données post mortem et la reconnaissance d’une «privacy post-mortem» comme faculté de maîtriser son héritage numérique au-delà du décès.

Les perspectives culturelles et religieuses sont ensuite passées en revue, non pour trancher, mais pour éclairer la diversité des compatibilités et des résistances. Des traditions chrétiennes conservatrices, insistant sur la souveraineté divine et la résurrection corporelle, risquent de juger l’imitation technologique incongrue; d’autres approches chrétiennes peuvent tolérer des outils mémoriels pourvu qu’ils ne se fassent pas passer pour une «résurrection». L’islam met l’accent sur la dignité du défunt et la résurrection, ce qui invite à la prudence, même si des pratiques de remembrance peuvent accueillir des supports numériques. Le judaïsme, avec ses observances communautaires, ouvre des points d’intégration tout en alertant sur le risque d’individualiser excessivement le deuil. Dans l’hindouisme et le bouddhisme, l’accent sur l’impermanence et la libération suggère une acceptabilité conditionnelle—attention aux attachements qui freinent le cheminement—tandis que certaines traditions d’ancêtres (Asie de l’Est, shinto) pourraient trouver une résonance plus forte avec des formes de connexion médiées par la technologie. Les traditions autochtones, enfin, centrées sur le collectif et les cycles naturels, interrogent le déplacement vers des «résurrections» individuelles et numériques. Cette cartographie n’édicte pas de règle unique; elle invite à une sensibilité contextuelle dans la conception et le déploiement des services.

Le détour philosophique donne des outils pour nommer les ambiguïtés identitaires. Le «bateau de Thésée» sert de métaphore pour interroger ce qui demeure du même lorsque la machine génère des réponses «à la manière de» sans être la personne: qu’est-ce qui, de l’information, du temps, de l’interaction avec l’environnement, fonde la continuité d’une identité? L’auteur distingue soigneusement l’imitation des signes extérieurs de la conscience et l’existence d’une subjectivité: les systèmes actuels, même très convaincants, relèvent de la première et non de la seconde. La théorie de l’«identité narrative» éclaire une autre ligne de crête: lorsqu’un système continue d’«écrire» en caractère après la mort, il prolonge le récit de soi sans l’agence de l’intéressé. La loyauté envers le défunt et la transparence due aux vivants imposent de rendre lisible ce statut ontologique pour prévenir des malentendus psychiquement coûteux.

Le chapitre normatif recense les cadres existants et les lacunes, avec un accent européen qui intéressera les praticiens helvétiques. D’un côté de l’Atlantique, des instruments comme la RUFADAA aux États-Unis traitent surtout de l’accès aux comptes par les ayants droit, sans embrasser les enjeux spécifiques de la simulation. En Europe, le RGPD reste la référence pour les vivants, mais son article 27 exclut les personnes décédées, même si certains États membres ont étendu certaines protections post mortem; les droits de la personnalité ou de publicité posthume (p. ex. en Californie) encadrent des usages commerciaux mais couvrent mal l’appropriation «familiale» ou mémorielle. La doctrine propose d’ériger des principes de dignité posthume, d’opter pour l’opt-in explicite, de borner temporellement les simulations, de protéger les publics vulnérables et de créer des «directives d’héritage numérique» précisant les paramètres de simulation. Ces pistes s’articulent avec des standards privés émergents, intéressants mais non contraignants.

L’article va plus loin en esquissant un «paquet» de conformité européenne pour les services d’au-delà numériques. Il rappelle que, selon la qualification, ces systèmes pourraient entrer dans la catégorie des IA à haut risque au sens de l’AI Act, dès lors qu’ils affectent l’identité personnelle, le bien-être émotionnel ou l’état psychologique. En suivent des exigences usuelles—transparence et signalétique claire du caractère simulé, dispositifs de sauvegarde psychologique, contrôle humain et options de désactivation, obtention de consentements explicites, y compris par les représentants le cas échéant—, qu’il faudra traduire dans les cycles de conception et d’audit. Le Data Act est convoqué pour souligner les droits d’accès, de portabilité et d’effacement—y compris par des représentants—et l’exigence de minimisation; le Data Governance Act entre en scène pour l’intendance des jeux de données et les régimes d’accès sous gouvernance; le Digital Services Act impose l’identifiabilité des contenus générés par IA et des mécanismes de signalement d’abus ou de détresse. Ce panorama, même s’il exige des rapprochements interprétatifs et une adaptation aux spécificités nationales, fournit une trame de diligence à l’échelle européenne, utile à tous les opérateurs qui ciblent des utilisateurs situés en Europe, quel que soit leur siège.

Pour les avocats, plusieurs implications pratiques se dégagent de cette synthèse normative. La documentation contractuelle doit articuler l’origine des données et leur licéité, la gouvernance de la base d’entraînement, les bornes temporelles, la révocabilité, l’information des tiers «enchevêtrés», les mécanismes de vérification des directives et les garde-fous cliniques si le service vise des publics fragiles. Les notices et interfaces devront garantir la transparence effective, non seulement formelle. Les processus internes devront intégrer des évaluations d’impact, incluant l’angle psychologique, et prévoir un plan de continuité technico-juridique compte tenu des horizons pluri-décennaux revendiqués par certains services. Enfin, l’internationalisation du marché impose d’anticiper les divergences entre droits des successions, droits de la personnalité et droits des données selon les juridictions desservies, la doctrine citée documentant des variations marquées entre traditions civilistes et de common law et entre États européens eux-mêmes.

La conclusion propose une matrice d’analyse intégrée en quatre dimensions—impact psychologique, intégrité éthique, congruence culturelle et transparence technologique—et insiste sur leur interdépendance: une protection éthique robuste soutient la santé psychique; la congruence culturelle conditionne l’acceptabilité sociale; la clarté ontologique du statut de la simulation est un préalable à la loyauté vis-à-vis des usagers. L’auteur appelle à des études longitudinales sur les trajectoires de deuil avec et sans outils de simulation, à des comparaisons interculturelles fines, à des travaux d’ingénierie pour outiller les principes de consentement, de temporalité et de transparence, à une doctrine juridique plus complète des droits post mortem sur les données et à une poursuite du dialogue philosophique sur identité et conscience. Ce programme de recherche s’accompagne d’un ensemble de principes opérationnels—consentement explicite et informé, transparence et signalétique, révocabilité, protection de la vie privée du défunt et des tiers, garde-fous psychologiques, sensibilité culturelle, exactitude informationnelle, contrôle indépendant—pensés comme un socle minimal, appelé à évoluer au rythme des techniques et des usages.

En filigrane, l’article rappelle que ces technologies ne sont pas de simples outils; elles transforment la manière dont nos sociétés expérimentent la mort. De la photographie du XIXe siècle aux réseaux sociaux, chaque vague technique a remodelé nos rituels et nos récits. Les «restes numériques» et leurs avatars conversants pourraient à leur tour recomposer les frontières entre présence et absence, mémoire et invention. Pour des praticiens suisses confrontés à des demandes d’utilisateurs, d’entreprises ou d’institutions de santé, l’enjeu est moins de «freiner» l’innovation que de la conditionner: par des conceptions responsables, des contrats exhaustifs, des évaluations pluridisciplinaires et une vigilance quant aux populations à risque. L’invitation finale est claire : croiser les compétences des ingénieurs, cliniciens, philosophes, juristes et spécialistes des cultures afin de faire coïncider notre désir très humain de lien avec des principes de dignité et d’autonomie à la hauteur de la sensibilité du sujet.

Me Philippe Ehrenström, avocat, LLM, CAS en Droit et Intelligence Artificielle

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, est tagué , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire