États-Unis: un homme décédé témoigne au procès de son meurtrier grâce à l'IA

Tuée par balles, une victime a "témoigné" lors du procès de son meurtrier. Aux États-Unis, le clone numérique de Chritsopher Pelkey, un homme de 37 ans tué lors d'une fusillade, a été entendu au procès de l'homme qui l'a abbatu.
C'est une première dans l'histoire de la justice. Son visage et sa longue barbe rousse sont apparus sur un écran, casquette vissée sur la tête. C’est lui qui parle, il s'agit bien de sa voix, et ses lèvres bougent. "Je suis une version de Chris Pelkey recréé par IA", débute-t-il. Puis il s’adresse directement à son meurtrier: "C’est dommage que l’on se soit rencontré dans ces circonstances, dans une autre vie on aurait pu être amis."
Cette reconstitution a été possible, à la demande de la sœur de Christopher Pelkey, en utilisant des vidéos et des enregistrements vocaux. À partir de ces éléments, une IA a été capable de générer une sorte de double numérique. La vidéo est troublante, et doit encore plus l’être pour celles et ceux qui ont connu la victime. Elle alterne de vraies archives vidéos du défunt et des passages de son avatar qu’on entend donc littéralement pardonner son meurtrier. La vidéo a convaincu le juge, qui a dit qu’il "adorait cette IA" et qu'il l’avait trouvée "très sincère".
Quid de la notion de consentement
Mais cette intervention pose des questions d'éthique, notamment celle concernant la notion de concentement. Il est peu probable que Christopher Pelkey ait donné son accord pour que sa voix soit utilisée après sa mort. Est-ce que cet homme qui s’est quand même fait tirer dessus aurait effectivement pardonné à son meurtrier ? Sa sœur en est convaincue, mais en réalité personne ne peut en être certain. Il existe un vrai risque de manipulation de la justice. Cette voix synthétique pourrait ne pas véritablement représenter les pensées, l'intention et l'émotion d'un défunt.
Pour promouvoir leur outil, les promoteurs de ce type de technologie ont un argumentaire bien rôdé. Ils estiment que ça n’est pas plus dangereux que de regarder de vieilles photos ou continuer à discuter dans sa tête avec une personne disparue. Mais beaucoup d’experts et psychologues estiment qu’au contraire ces "robots de deuil" sont un frein au deuil. Ils sont utilisés pour tenter de se soustraire à une absence irrémédiable, mais qui fait partie de la vie.
De nombreuses startups émergent
Des startups, comme StoryFile, HereAfter AI ou encore Eternos.life, se sont spécialisées dans la création de doubles virtuels d’une personne pour que ses proches puissent continuer à discuter avec elle après sa mort. La première étape consiste à enregistrer des centaines de phrases type, pour permettre à l’IA de cloner sa voix avec précision, dans toutes ses intonations. Ensuite, il est demandé à l'utilisateur de répondre à des questions sur sa vie, de raconter des histoires personnelles sur son parcours, ses idées et ses principes.
En Allemagne, le cas de Michael Bommer, décédé des suites d'un cancer en phase terminale, y a vu une manière de librer un héritage, qui permettra aux générations futures de profiter de son expérience.