Récemment, lors de la 12e conférence sur la finance numérique et la Fintech, un événement de la série de forums de Zhongguancun, la solution de détection Deepfake d'Ant Group a été sélectionnée pour le prix « Innovation technologique et applications en Fintech ».
Ant Group, s'appuyant sur son laboratoire Tianji, a été le premier à construire un ensemble de données Deepfake à grande échelle, de haute qualité et multimodale. Ce jeu de données, comprenant plus d'un million de contenus multimédias synthétiques, simule fidèlement les attaques Deepfake dans un environnement de contrôle des risques financiers réel, devenant ainsi une référence importante pour évaluer les performances des modèles de détection Deepfake existants dans le domaine financier. Dans les scénarios d'applications financières, Ant Group a atteint une précision de détection Deepfake supérieure à 98 % sur plusieurs ensembles de données de test, empêchant ainsi de nombreuses fraudes utilisant la technologie Deepfake et protégeant ainsi les actifs des utilisateurs.
Cet ensemble de données a résolu le problème de l'impossibilité d'entraîner à grande échelle les modèles de détection Deepfake dans le domaine financier et de les évaluer dans un environnement réel. Il a également stimulé le développement des modèles de détection traditionnels grâce à une approche d'analyse multimodale. Aujourd'hui, cet ensemble de données est devenu une compétence clé du produit anti-contrefaçon ZOLOZ Deeper d'Ant Group, proposé à ses clients.
Il est à noter qu'Ant Group a utilisé jusqu'à 81 techniques Deepfake avancées pour générer des images synthétiques de haute qualité, couvrant divers types de techniques de falsification, des conditions d'éclairage complexes, des environnements d'arrière-plan et des expressions faciales afin de simuler un environnement d'attaque réel complexe et réaliste. Outre les images statiques, de nombreuses données vidéo contenant du son ont également été collectées et générées, comprenant plus de 100 types de techniques de falsification, couvrant différentes langues, accents et bruits de fond, garantissant ainsi la diversité et la complexité de l'ensemble de données.
Lors de la phase de prétraitement et d'annotation des données, Ant Group a nettoyé et prétraité les données collectées pour garantir leur qualité. Une équipe d'experts a annoté les données, indiquant clairement si chaque image ou vidéo était un contenu généré par Deepfake, tout en minimisant les traces de falsification pour obtenir un effet hautement réaliste. Auparavant, Ant Group avait lancé une plateforme de synthèse et de production de données IA, réalisant une « domination de l'IA » au niveau de l'annotation des données, le modèle d'annotation ayant réduit de plus de 70 % la quantité d'annotations manuelles.
De plus, Ant Group a lancé un défi Deepfake lors de la conférence Wai Tan 2024, utilisant l'ensemble de données Deepfake comme données de base d'entraînement et de test. Ce défi a attiré plus de 2200 participants de 26 pays et régions du monde. Grâce aux solutions algorithmiques proposées par les participants, la qualité des attaques et la difficulté de détection de l'ensemble de données Deepfake ont été efficacement vérifiées et évaluées.
Avec le développement de l'intelligence artificielle, la technologie Deepfake progresse rapidement. Cette technologie, utilisant des algorithmes d'apprentissage profond, permet de remplacer de manière réaliste les visages dans les vidéos. Bien que Deepfake ait des applications positives dans le divertissement et les médias, dans le domaine financier, en particulier pour l'authentification d'identité et la vérification des transactions, la technologie Deepfake présente de nouveaux risques. Les systèmes d'authentification des institutions financières reposent souvent sur la biométrie, comme la reconnaissance faciale. Si ces systèmes sont trompés par la technologie Deepfake, cela peut entraîner de graves fraudes financières.
Par conséquent, le développement de systèmes de détection des attaques Deepfake est essentiel dans le domaine financier. Cependant, de puissants modèles de défense contre la détection Deepfake nécessitent des ensembles de données Deepfake de haute qualité et conformes à l'environnement réel. La manière de construire des ensembles de données simulées réelles et de vérifier leur efficacité est donc une question urgente.