Microsoft a annoncé qu'il utilisait des outils d'intelligence artificielle pour accélérer la modération du contenu sur sa plateforme de jeu Xbox, afin de répondre à la demande importante. Ces systèmes permettent de signaler automatiquement les contenus potentiellement problématiques pour un examen manuel.
Microsoft utilise l'outil de modération Community Sift et le modèle de langage visuel Turing Bletchley v3. Ces outils scannent automatiquement le contenu et aident à filtrer les éléments nécessitant une vérification humaine.
Microsoft indique que ces nouveaux outils traitent quotidiennement des milliards d'interactions entre joueurs, dont plus de 36 millions de signalements, et scannent des centaines de millions d'images générées par les utilisateurs. Les rapports montrent une amélioration significative de l'efficacité de Microsoft dans l'identification proactive des contenus non conformes.
Les experts estiment que l'intelligence artificielle permettra aux plateformes de jeux vidéo de modérer plus efficacement les quantités massives de contenu généré par les utilisateurs, contribuant ainsi à maintenir un environnement de jeu sain.