C’est une première en France : 25 doubleurs professionnels viennent de gagner leur procès contre une entreprise américaine d’intelligence artificielle qui avait cloné leurs voix sans autorisation. Le tribunal a reconnu que l’utilisation de leurs voix par l’IA constituait une violation de leurs droits, ouvrant la voie à d’autres recours dans un secteur fragilisé par ces technologies.
Comment leurs voix ont été volées
Les 25 comédiens de doublage — ceux qui prêtent leur voix aux acteurs étrangers dans les films et séries — avaient enregistré des extraits vocaux pour ce qu’ils croyaient être un usage limité. L’entreprise d’IA a ensuite utilisé ces enregistrements pour entraîner son logiciel de clonage vocal, permettant de reproduire leurs voix à l’infini pour n’importe quel texte. Résultat : leurs voix se retrouvent dans des publicités, des audiolivres ou des vidéos YouTube sans qu’ils touchent un centime ni aient donné leur accord.
Cette affaire fait écho à plusieurs cas similaires qui se multiplient depuis 2024. La famille de Jacques Frantz, voix française iconique de Robert De Niro décédé en 2021, avait découvert sa voix clonée sur une chaîne YouTube de livres audio. L’influenceur Bruno Maltor (640 000 abonnés) s’est réveillé en découvrant sa voix utilisée sans son accord dans des vidéos de géographie. Même Cyprien, youtubeur aux millions d’abonnés, a vu son visage et sa voix détournés pour une fausse pub de casino.
Pourquoi ça vous concerne aussi
Si vous pensez que seuls les professionnels sont visés, détrompez-vous. Avec quelques secondes de votre voix capturées sur TikTok, Instagram ou YouTube, n’importe qui peut aujourd’hui la cloner gratuitement. Des outils d’IA grand public comme ElevenLabs ou Play.ht permettent de générer une voix réaliste à partir d’un court extrait audio — parfois moins de 30 secondes.
YouTube Kids envahi par l’IA : ce que les parents doivent savoir
La profession s’organise : plus de 200 doubleurs ont lancé en avril la campagne #TouchePasMaVF pour alerter sur la disparition programmée de leurs métiers. Le secteur emploie 15 000 personnes en France. Mais au-delà des professionnels, c’est toute personne ayant une présence vocale en ligne qui devient vulnérable : influenceurs, formateurs, podcasteurs, même des particuliers dans des vidéos familiales.
Ce que change cette décision de justice
Cette victoire judiciaire française est la première du genre en Europe. Elle établit un précédent : utiliser la voix de quelqu’un pour entraîner une IA sans consentement explicite constitue une violation des droits de la personnalité. Aux États-Unis, une affaire similaire contre la startup Lovo traîne depuis mai 2024 sans résolution, l’entreprise ayant riposté en demandant l’irrecevabilité de la plainte.
Concrètement, cette décision pourrait contraindre les entreprises d’IA à obtenir des autorisations claires avant d’utiliser des voix pour entraîner leurs modèles. Elle pourrait aussi ouvrir la porte à des compensations financières pour ceux dont les voix ont déjà été clonées. Reste à savoir si les plateformes comme YouTube ou TikTok mettront en place des outils de détection pour signaler les voix clonées — pour l’instant, rien n’est prévu.
En attendant, si vous publiez régulièrement du contenu vocal en ligne, sachez que votre voix peut être collectée et réutilisée. Aucune protection technique n’existe vraiment côté utilisateur, à part limiter la diffusion publique de longs extraits vocaux. La bataille juridique ne fait que commencer.
4 IA Google qui tournent sur votre smartphone sans Internet : le guide complet 2026
Ce qu’en disent les experts IA
Clonage de voix: des doubleurs français s'attaquent à deux sociétés américaines d'IAhttps://t.co/MLGgQuLtPg
— SNRTNewsfr (@SNRTNewsfr) February 3, 2026
Clonage de voix: des doubleurs français s'attaquent à deux sociétés américaines d'IA | JDM https://t.co/bZybrJXNGp
— Denis Vézina (@DenisDvezine) February 3, 2026
Les technologies de clonage vocal évoluent rapidement. Cette décision de justice concerne uniquement le territoire français et pourrait faire jurisprudence pour d’autres cas similaires.


