Les scientifiques prouvent que les détecteurs deepfakes peuvent être dupés

Les universités, les organisations et les géants de la technologie, tels que Microsoft et Facebook, ont travaillé sur des outils capables de détecter les deepfakes dans le but d’empêcher leur utilisation pour la propagation de médias malveillants et la désinformation. Les détecteurs Deepfake, cependant, peuvent toujours être dupés, a averti un groupe d’informaticiens de l’UC San Diego. L’équipe a montré comment les outils de détection peuvent être trompés en insérant des entrées appelées «exemples contradictoires» dans chaque image vidéo lors de la conférence de vision par ordinateur WACV 2021 qui a eu lieu en ligne en janvier.

Dans leur annonce, les scientifiques ont expliqué que les exemples contradictoires sont des images manipulées qui peuvent entraîner une erreur des systèmes d’IA. Vous voyez, la plupart des détecteurs fonctionnent en suivant les visages dans les vidéos et en envoyant des données de visage recadrées à un réseau de neurones – les vidéos deepfake sont convaincantes car elles ont été modifiées pour copier le visage d’une personne réelle, après tout. Le système de détection peut alors déterminer si une vidéo est authentique en regardant des éléments qui ne sont pas bien reproduits dans les deepfakes, comme le clignotement.

Les scientifiques de l’UC San Diego ont découvert qu’en créant des exemples contradictoires du visage et en les insérant dans chaque image vidéo, ils étaient en mesure de tromper «des détecteurs de faux-fond à la pointe de la technologie». De plus, la technique qu’ils ont développée fonctionne même pour les vidéos compressées et même s’ils n’avaient pas d’accès complet au modèle de détecteur. Un mauvais acteur utilisant la même technique pourrait alors créer des deepfakes qui peuvent échapper même aux meilleurs outils de détection.

Alors, comment les développeurs peuvent-ils créer des détecteurs qui ne peuvent pas être dupés? Les scientifiques recommandent d’utiliser l’entraînement de l’adversaire, dans lequel un adversaire adaptatif continue de générer des deepfakes qui peuvent contourner le détecteur pendant son entraînement, afin que le détecteur puisse continuer à s’améliorer en repérant des images non authentiques.

Les chercheurs ont écrit dans leur article:

«Pour utiliser ces détecteurs deepfake dans la pratique, nous soutenons qu’il est essentiel de les évaluer par rapport à un adversaire adaptatif qui est conscient de ces défenses et tente intentionnellement de déjouer ces défenses. Nous montrons que l’état actuel des méthodes de détection des deepfake peut être facilement contourné si l’adversaire a une connaissance complète ou même partielle du détecteur.

Articles Récents