Récemment, des chercheurs de Google ont lancé un avertissement : l’intelligence artificielle générative (IA générative) est en train de polluer Internet avec de faux contenus. Ce n’est pas seulement une mise en garde, mais aussi une forme d’introspection.

Ironiquement, Google joue un double rôle dans cette « guerre du vrai et du faux ». D’une part, c’est un acteur majeur dans le développement de l’IA générative, d’autre part, c’est aussi un producteur de fausses informations. La fonction de synthèse de Google AI a déjà proposé des suggestions absurdes comme « mettre de la colle sur une pizza » ou « manger des pierres », des informations erronées qui ont dû être supprimées manuellement.

image.png

L’équipe de recherche de Google a analysé en profondeur 200 articles de presse sur les abus de l’IA générative et a constaté que la falsification de portraits humains et la fabrication de preuves étaient les formes d’abus les plus courantes. Le but de ces actions est simplement d’influencer l’opinion publique, de frauder ou de tirer profit. Les risques liés à l’IA générative ne menacent pas encore notre survie, mais c’est un phénomène actuel qui pourrait empirer à l’avenir.

Les chercheurs ont découvert que la plupart des cas d’abus de l’IA générative correspondent à une utilisation normale du système, sans « jailbreak ». Ce type d’« opération standard » représente 90 % des cas. La large disponibilité, l’accessibilité et le caractère hyperréaliste de l’IA générative rendent possibles de nombreuses formes d’abus de faible niveau. Le coût de création de fausses informations est extrêmement bas !

image.png

Les données de recherche de Google proviennent en grande partie de reportages médiatiques. Cela signifie-t-il que les conclusions de l’étude sont biaisées par les médias ? Les médias ont tendance à privilégier les événements sensationnels, ce qui peut entraîner un biais dans l’ensemble de données vers des types d’abus spécifiques. 404Media souligne qu’il existe de nombreux abus de l’intelligence artificielle générative dont nous n’avons pas encore conscience et qui ne sont pas signalés.

Les « garde-fous » des outils d’IA peuvent être contournés grâce à quelques astuces. Par exemple, l’outil de clonage vocal de l’intelligence artificielle d’ElevenLabs peut imiter de manière extrêmement réaliste la voix de collègues ou de célébrités. Les utilisateurs de Civitai peuvent créer des images de célébrités générées par l’IA. Bien que la plateforme interdise les NCII (images intimes non consensuelles), rien n’empêche les utilisateurs d’utiliser des outils open source sur leur propre machine pour générer des NCII.

Face à la prolifération des fausses informations, le chaos sur Internet met à rude épreuve la capacité des gens à discerner le vrai du faux. Nous sombrons dans un doute permanent : « Est-ce vrai ? » Sans solution, la pollution des données publiques par les contenus générés par l’IA pourrait également entraver la recherche d’informations et fausser la compréhension collective de la réalité sociopolitique ou du consensus scientifique.

Google a joué un rôle dans l’augmentation des fausses informations générées par l’IA. Les balles tirées il y a plusieurs années finissent par se retourner contre lui. Cette étude de Google pourrait être le début d’une rédemption, mais aussi un avertissement pour toute la société internet.

Adresse de l’article : https://arxiv.org/pdf/2406.13843