Récemment, Google a déployé de nouvelles mesures de sécurité en ligne visant à supprimer plus efficacement et à grande échelle les deepfakes explicites de ses résultats de recherche, et à empêcher leur apparition en bonne place.
Il est entendu que lorsque les utilisateurs demandent avec succès le retrait de fausses images explicites non consensuelles les représentant, le système Google traite non seulement ces contenus spécifiques, mais s'efforce également de filtrer tous les résultats explicites similaires, voire de supprimer les images dupliquées.
Emma Higham, chef de produit chez Google, a déclaré que ces protections avaient déjà prouvé leur efficacité pour d'autres types d'images non consensuelles, et qu'elles offraient désormais la même fonctionnalité pour les images falsifiées explicites, afin de rassurer les utilisateurs.
De plus, le mécanisme de classement de la recherche Google a été optimisé. Pour les recherches intentionnelles d'images deepfakes de personnes réelles, comme les images pornographiques de Taylor Swift générées par intelligence artificielle qui ont circulé plus tôt cette année, la recherche Google affichera des contenus de haute qualité et non explicites, tels que des articles de presse. Les sites web ayant fait l'objet d'un grand nombre de suppressions en raison d'images falsifiées explicites verront leur classement dans les résultats de recherche Google dégradé.
Google affirme que les mises à jour précédentes de cette année ont réduit de plus de 70 % l'exposition des résultats d'images explicites dans les requêtes ciblant spécifiquement ces deepfakes. En outre, Google travaille activement à la mise au point de méthodes permettant de distinguer les contenus explicites authentiques (comme des scènes de nudité avec le consentement des acteurs) des contenus falsifiés explicites, afin de dégrader les deepfakes tout en assurant l'affichage normal des images légitimes. Ces mises à jour s'inscrivent dans le cadre d'une série de mesures prises par Google pour lutter contre les dangers en ligne et les contenus explicites.
Dès mai dernier, Google a interdit aux annonceurs de promouvoir des services pornographiques deepfake. En 2022, Google a élargi les types d'informations de "chasse à l'homme" pouvant être supprimées de la recherche, et depuis août 2023, le floutage des images pornographiques est activé par défaut.
Points clés :
- 😃 Google lance de nouvelles fonctionnalités de sécurité en ligne pour supprimer massivement les deepfakes explicites.
- 😜 Ajustement du classement des recherches et déclassement des sites contenant des images falsifiées explicites.
- 😕 Mesures continues pour lutter contre les dangers en ligne et les contenus explicites.