Selon l'Associated Press, l'essor des outils d'intelligence artificielle (IA) générative pose des défis sans précédent aux commerçants, aux fournisseurs de services et aux consommateurs. Ces outils permettent de générer efficacement des critiques en ligne nouvelles et détaillées, avec un minimum d'intervention humaine, ce qui exacerbe le problème des faux avis.

Le rapport souligne que les faux avis affectent depuis longtemps des plateformes de commerce électronique de renom comme Amazon et Yelp. Ces avis sont souvent échangés au sein de groupes privés sur les médias sociaux, entre des courtiers en faux avis et des commerçants prêts à payer. Parfois, les commerçants incitent également les clients à rédiger des avis positifs en offrant des cartes-cadeaux, par exemple.

Robot, interaction homme-machine, intelligence artificielle

Cependant, la popularisation des outils de génération de texte par IA, tels que ChatGPT d'OpenAI, permet aux fraudeurs de générer des faux avis plus rapidement et en plus grande quantité. Selon des experts du secteur technologique, ces pratiques frauduleuses sont illégales aux États-Unis et se déroulent toute l'année, mais les dommages causés aux consommateurs par les faux avis sont particulièrement importants pendant la période des achats de Noël, car de nombreuses personnes s'appuient sur les avis pour choisir leurs cadeaux.

Transparency Company, une société technologique et organisme de surveillance, affirme utiliser un logiciel pour détecter les faux avis et avoir constaté une augmentation massive des avis générés par IA depuis le milieu de l'année 2023, une tendance qui ne cesse de s'accentuer.

L'arrivée des outils d'IA rend la génération de faux avis plus insidieuse et difficile à détecter. Cela nuit non seulement aux consommateurs, mais menace également gravement la confiance dans les plateformes de commerce électronique. La lutte efficace contre les faux avis générés par l'IA représente un défi majeur pour les plateformes de commerce électronique et les organismes de réglementation.