Aujourd'hui, les deepfakes sont omniprésents. Avec la popularisation de l'IA générative, les fausses informations en ligne connaissent une croissance exponentielle. Selon la plateforme d'authentification Sumsub, le nombre de deepfakes a quadruplé entre 2023 et 2024 à l'échelle mondiale. En 2024, les deepfakes représentaient 7 % de toutes les fraudes, de l'usurpation d'identité et du vol de compte aux attaques sophistiquées d'ingénierie sociale.
Pour lutter efficacement contre les deepfakes, Meta a récemment publié un outil capable d'ajouter des filigranes imperceptibles aux extraits vidéo générés par l'IA. Annoncé jeudi et désormais open source, cet outil, baptisé Meta Video Seal, est conçu pour être intégré aux logiciels existants. Il complète les autres outils de filigrane de Meta, Watermark Anything (aujourd'hui redistribué sous une licence permissive) et Audio Seal, pour former une solution complète.

Pierre Fernandez, chercheur en IA chez Meta, a déclaré à TechCrunch : « Nous avons développé Video Seal pour offrir une solution de filigrane vidéo plus efficace, notamment pour détecter les vidéos générées par l'IA et protéger l'originalité. »
Video Seal n'est pas la première technologie de ce type. DeepMind propose SynthID, qui ajoute des filigranes aux vidéos, et Microsoft possède également sa propre méthode de filigrane vidéo.
Mais Fernandez estime que de nombreuses méthodes existantes présentent des lacunes.
« Bien que d'autres outils de filigrane existent, ils manquent de robustesse face à la compression vidéo (très courante lors du partage de contenu sur les plateformes sociales) ; leur efficacité est insuffisante pour une application à grande échelle ; ils ne sont pas assez ouverts ou reproductibles ; ou bien ils dérivent du filigrane d'images, qui n'est pas optimal pour les vidéos », explique Fernandez.
En plus du filigrane, Video Seal peut ajouter des messages cachés à la vidéo afin de révéler ultérieurement son origine. Meta affirme que Video Seal résiste aux opérations d'édition courantes, telles que le floutage et le rognage, ainsi qu'aux algorithmes de compression habituels.
Fernandez reconnaît que Video Seal présente certaines limites, principalement un compromis entre la perceptibilité du filigrane et sa résistance globale à la manipulation. Il ajoute qu'une compression intense et des modifications importantes peuvent altérer le filigrane ou le rendre irrécupérable.
Bien sûr, le plus grand défi pour Video Seal est que les développeurs et l'industrie n'ont pas beaucoup de raisons de l'adopter, notamment les entreprises qui utilisent déjà des solutions propriétaires. Pour résoudre ce problème, Meta lance un classement public, Meta Omni Seal Bench, dédié à la comparaison des performances des différentes méthodes de filigrane. De plus, Meta organisera un atelier sur les filigranes lors de la conférence ICLR (International Conference on Learning Representations) de cette année, une conférence majeure sur l'IA.
« Nous espérons que de plus en plus de chercheurs et de développeurs en IA intégreront une forme de filigrane à leurs travaux », déclare Fernandez. « Nous souhaitons collaborer avec l'industrie et le monde universitaire pour accélérer le développement de ce domaine. »
Cette initiative de Meta offre sans aucun doute de nouvelles pistes pour lutter contre la prolifération des deepfakes. L'open source et la collaboration ouverte sont peut-être des solutions efficaces pour résoudre ce problème complexe. Mais l'avenir de Video Seal dépendra de son adoption généralisée par l'industrie et de sa capacité à contrer l'évolution constante des deepfakes.