Microsoft ha anunciado que está utilizando herramientas de inteligencia artificial para acelerar el proceso de moderación de contenido en su plataforma de juegos Xbox, debido a la enorme cantidad de contenido que necesita ser revisado.
Estos sistemas pueden etiquetar automáticamente contenido potencialmente problemático para su posterior revisión manual. Microsoft emplea la herramienta de moderación Community Sift y el modelo de lenguaje visual Turing Bletchley v3. Estas herramientas escanean automáticamente el contenido para ayudar a filtrar las partes que requieren revisión humana.
Microsoft afirma que las nuevas herramientas procesan automáticamente miles de millones de interacciones de jugadores diariamente, incluyendo más de 36 millones de informes de jugadores, además de escanear cientos de millones de imágenes generadas por usuarios.
Los informes muestran que estas herramientas de IA han mejorado significativamente la eficiencia de Microsoft en la identificación proactiva de contenido que infringe las normas.
Los expertos opinan que la tecnología de inteligencia artificial ayudará a las plataformas de juegos a moderar de manera más eficiente el enorme volumen de contenido generado por los usuarios, manteniendo así un entorno de juego saludable.