“On a cloné ma voix avec une IA”: quand la technologie brouille la frontière entre vrai et faux

On peut aujourd’hui créer un clone vocal en quelques secondes, capable de parler à votre place avec une précision bluffante. Anthony Morel a testé cette technologie en plateau: il suffit de quelques secondes d’enregistrement pour obtenir une reproduction quasi parfaite de sa voix.
Une voix clonée en quelques secondes
“Vous l’aurez compris, ces mots, je ne les ai jamais prononcés… C’est mon clone vocal qui parle pour moi”, explique Anthony Morel. Le journaliste a fait appel à une start-up française, Silencesilence.ai, pour générer un double numérique de sa voix.
Le principe est simple : on fournit un court extrait sonore, parfois dix secondes suffisent. L’intelligence artificielle analyse le timbre, le spectre et les intonations pour créer une empreinte vocale. Ensuite, il suffit de taper un texte sur son ordinateur ou son smartphone : la voix clonée se charge de le lire instantanément.
Des solutions comme Heygen, ElevenLabs ou Chatterbox permettent déjà au grand public de tester cette technologie. Le rendu reste parfois un peu robotique, notamment pour reproduire les émotions ou le sarcasme, mais les progrès sont fulgurants.
Des applications positives
Si la démonstration prête à sourire, le potentiel est immense. “L’enjeu, c’est surtout de redonner une voix à ceux qui l’ont perdue”, rappelle Anthony Morel. Plus de 500 millions de personnes dans le monde souffrent d’un trouble de la voix lié à une maladie neurologique ou à une aphonie. Grâce à un échantillon sonore, il devient possible de leur restituer une voix, au moins via un clavier — avant, peut-être, de la piloter directement par la pensée grâce à des casques ou implants cérébraux.
Les applications ne s’arrêtent pas là :
- des livres audio lus avec la voix d’un parent ou d’un acteur célèbre,
- des cours traduits instantanément dans toutes les langues avec la voix du professeur,
- des personnages historiques qui “reprennent vie” dans un musée ou un parc d’attractions,
- des jeux vidéo personnalisés où le héros parle avec votre propre voix.
Mais des dérives inquiétantes
Cette innovation pose toutefois de sérieux problèmes de sécurité. “Imaginez vos grands-parents qui reçoivent un appel de leur petit-fils leur demandant de l’argent… La voix est parfaite, ils reconnaissent le timbre immédiatement”, illustre Anthony Morel.
Ces arnaques, déjà connues sous le nom d’“arnaques au président” dans les entreprises, deviennent bien plus difficiles à détecter. Dans ce type de fraude, un escroc imite la voix d’un patron pour réclamer un virement urgent à un salarié.
Autre risque : la sécurité des données. Un journaliste américain a cloné sa voix pour… accéder à son propre compte bancaire, protégé par une identification vocale. De quoi faire craindre un futur où la frontière entre vrai et faux sera de plus en plus floue.
Les experts s’accordent: face à la prolifération de ces clones vocaux, il faudra développer des outils capables de détecter automatiquement si une voix a été générée par une IA. En attendant, la vigilance reste de mise : ne jamais se fier uniquement à la voix d’un interlocuteur.